العلم وراء روبوتات المحادثة التي تعمل بالذكاء الاصطناعي: كيف يعمل ChatGPT و Google Bard

العلم وراء روبوتات المحادثة التي تعمل بالذكاء الاصطناعي: كيف يعمل ChatGPT و Google Bard

في السنوات الأخيرة ، أصبحت روبوتات الدردشة التي تعمل بالذكاء الاصطناعي منتشرة بشكل متزايد ، مع أمثلة مثل ChatGPT و Google Bard التي تولد اهتمامًا كبيرًا نظرًا لقدرتها على أداء مجموعة من المهام. يمكن لأدوات برامج المحادثة من الجيل التالي أن تنتج أدبًا إبداعيًا ، وتتولى عمليات البحث على الويب ، وتتذكر كل معارف العالم حتى لا نضطر إلى ذلك. ومع ذلك ، للاستفادة بشكل أفضل من هذه الأدوات ، من المفيد الخوض في كيفية عملها وما يجيدونه (وما لا يجيدونه).

تعد ChatGPT و Google Bard وروبوتات أخرى مثلهم أمثلة لنماذج اللغات الكبيرة (LLMs) التي يتم تدريبها على كميات هائلة من البيانات. على الرغم من أن الشركات التي تقف وراءها غالبًا ما تتوخى الحذر بشأن الكشف بالضبط عن مصدر البيانات ، إلا أن الأبحاث تشير إلى أن المصادر تشمل المنتديات العامة والمواقع الإلكترونية والموارد الأخرى عبر الإنترنت مثل ويكيبيديا ومواقع الأسئلة والأجوبة.

لمعالجة هذه البيانات ، تستخدم LLM الشبكات العصبية ، والتي تعد نوعًا من محركات الذكاء الاصطناعي المكونة من عدة طبقات وطبقات. تعمل الشبكات العصبية باستمرار على تعديل الطريقة التي تفسر بها البيانات وتعقلها بناءً على نتائج التجربة والخطأ السابقة ، وتستخدم شبكات LLM بنية شبكة عصبية معينة تسمى المحول ، والتي لديها بعض الحيل المناسبة بشكل خاص لمعالجة اللغة. يرمز GPT after Chat إلى Generative Pretrained Transformer.

يمكن للمحولات قراءة كميات هائلة من النصوص وتحديد الأنماط في كيفية ارتباط الكلمات والعبارات ببعضها البعض ، ثم عمل تنبؤات حول الكلمات التي يجب أن تأتي بعد ذلك. تعد آلية الانتباه الذاتي أحد الابتكارات الرئيسية لهذه المحولات ، وهي تسمح بمستوى أكبر من الفهم مما يمكن أن يكون ممكنًا. في الجوهر ، يعني هذا أن الكلمات في الجملة لا يتم اعتبارها منعزلة ، ولكن أيضًا فيما يتعلق ببعضها البعض بطرق متنوعة ومتطورة.

ومع ذلك ، هناك بعض العشوائية والاختلافات المضمنة في الكود ، مما يعني أن الاستجابة من محادثة روبوت محولة لن تكون هي نفسها دائمًا. يمكن أن تتسلل الأخطاء أيضًا لأن LLM لا تعرف أساسًا ما هو دقيق وما هو غير دقيق. إنهم يبحثون عن ردود تبدو معقولة وطبيعية ، وتتوافق مع البيانات التي تم تدريبهم عليها. لذلك ، قد لا يختار الروبوت دائمًا الكلمة الأكثر احتمالًا التي تأتي بعد ذلك ، ولكن الكلمة الثانية أو الثالثة على الأرجح. إذا تم دفعها بعيدًا ، فستتوقف الجمل عن المعنى ، وهذا هو السبب في أن LLM في حالة ثابتة من التحليل الذاتي والتصحيح الذاتي.

يمكن أن تنتج LLM أيضًا نصًا عامًا أو كليشيهًا نظرًا لأنها تحاول تجميع الاستجابات من مستودعات ضخمة للنص الموجود. في بعض النواحي ، تقوم هذه الروبوتات بإخراج الجمل بنفس الطريقة التي يحاول بها جدول البيانات العثور على متوسط مجموعة من الأرقام ، مما يترك لك مخرجات غير ملحوظة تمامًا وفي منتصف الطريق. ومع ذلك ، إذا أعطيت نتائج عالية الجودة تستهدفها ، فيمكنها تحسين شبكاتها العصبية الداخلية بشكل أكبر للحصول على نتائج أفضل في المرة القادمة.

يساعد المشرفون والمستخدمون المدربون أيضًا في تدريب LLMs من خلال الإشارة إلى الأخطاء وترتيب الإجابات بناءً على مدى جودتها. يُعرف هذا باسم “التعلم المعزز على ردود الفعل البشرية” (RLHF) ، ويلعب دورًا مهمًا في تحسين قدرات روبوتات المحادثة هذه.

نظرًا لأن LLMs تكبر وأكثر تعقيدًا ، ستستمر قدراتها في التحسن. يحتوي ChatGPT-4 ، على سبيل المثال ، على حوالي 100 تريليون معلمة ، وهي قفزة هائلة من حيث فهم العلاقات بين الكلمات ومعرفة كيفية تجميعها معًا لإنشاء استجابة.

في الختام ، في حين أن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي مثل ChatGPT و Google Bard يمكنها محاكاة النص الذي تم تدريبهم عليه وإنتاج نص يبدو طبيعيًا ومستنيرًا ، إلا أن هناك قيودًا على قدراتهم. يمكنهم ارتكاب الأخطاء وإنتاج نص عام أو كليشيهات ، ولكن بمساعدة المشرفين المدربين والمستخدمين النهائيين ، يمكن تحسينها من خلال التعلم المعزز على التغذية الراجعة البشرية. مع تقدم التكنولوجيا ، من المرجح أن تصبح LLM أكثر تعقيدًا وأفضل تجهيزًا للتعامل مع مجموعة واسعة من المهام. من المهم أن يكون لديك فهم أفضل لكيفية عمل LLM للاستفادة بشكل أفضل من قدراتهم وتقدير ما يجيدونه وما لا يجيدونه.