الفريق الأحمر لـ OpenAI: خبراء تم تعيينهم لاختبار سلامة GPT-4

الفريق الأحمر لـ OpenAI: خبراء تم تعيينهم لاختبار سلامة GPT-4

قامت شركة OpenAI ، الشركة التي تقف وراء نموذج اللغة GPT-4 ، بتعيين 50 خبيرًا لتشكيل “الفريق الأحمر” ، الذين تم تكليفهم باختبار النظام واكتشاف عيوبه. أمضى فريق الأكاديميين والمحامين ومحللي المخاطر والباحثين الأمنيين من الولايات المتحدة وأوروبا ستة أشهر في التحقيق في النموذج بحثًا عن قضايا مثل السمية والتحيز والتحيز اللغوي. تم استخدام النتائج التي توصلوا إليها بواسطة OpenAI للتخفيف وإعادة تدريب GPT-4 قبل إطلاقه للجمهور.

استخدم أحد أعضاء الفريق الأحمر ، أستاذ الهندسة الكيميائية أندرو وايت ، GPT-4 لاقتراح عامل أعصاب جديد تمامًا واكتشف إمكانات النموذج في المساعدة والتحريض على الانتحال والأنشطة غير القانونية وتعريض الأمن القومي للخطر.

وجد مختبِرون آخرون أن النموذج عرض صورًا نمطية علنية حول المجتمعات المهمشة وأظهر تحيزات في الجنس والعرق والدين. أثار الفريق الأحمر مخاوف بشأن ربط GPT-4 بمصادر المعرفة الخارجية عبر المكونات الإضافية ، مما قد يؤدي إلى عواقب غير مقصودة مثل نشر روبوت المحادثة معلومات خاصة عبر الإنترنت أو الوصول إلى الحسابات المصرفية.

أقرت شركة OpenAI بأن GPT-4 لا يزال بإمكانها إظهار التحيزات ودربت النموذج على رفض طلبات الأمن السيبراني الضارة قبل إطلاقه. ومع ذلك ، منذ صدوره ، واجهت OpenAI انتقادات ، بما في ذلك شكوى إلى لجنة التجارة الفيدرالية من مجموعة أخلاقيات التكنولوجيا التي تدعي أن GPT-4 متحيز ومخادع ويشكل خطرًا على الخصوصية والسلامة العامة.

حذر أعضاء الفريق الأحمر من أن اختبار السلامة لا يمكن أن يتوقف لمجرد أن البرنامج مباشر واقترحوا إنشاء دفتر أستاذ عام للإبلاغ عن الحوادث الناشئة عن نماذج اللغات الكبيرة. كما اقترحوا الإعلان عن الأضرار والمخاطر بشكل واضح ، على غرار ملصقات التغذية. يعتقد الخبراء أن العمل لا يتم أبدًا وأن المراقبة والتقييم المستمران ضروريان.