هذا الأسبوع، تناول الرئيس التنفيذي لشركة OpenAI سام ألتمان المخاوف المتنامية بشأن المخاطر المرتبطة بالذكاء الاصطناعي القائم على الإنتاج خلال شهادته في جلسة لجنة القضاء في مجلس الشيوخ. وقد وصلت هذه المخاوف إلى أعلى مستوى لها، مما دفع إلى إجراء فحص أكثر دقة للآثار الأمنية المحيطة بـ ChatGPT، وهو نموذج لغة شهير تم تطويره بواسطة OpenAI.
في دراسة حديثة، تم تحديد ست مخاطر أمنية كبيرة فيما يتعلق باستخدام ChatGPT. تتضمن هذه المخاطر توليد خدمات احتيالية، وجمع معلومات ضارة، وكشف البيانات الخاصة، وتوليد نصوص خبيثة، وتوليد رموز خبيثة، وإنتاج محتوى مسيء.
جمع المعلومات يشكل تهديدًا كبيرًا، حيث يمكن للمهاجمين الاستفادة من ChatGPT لاستخراج معلومات حساسة يمكن استخدامها بأغراض ضارة. من خلال استغلال الكمية الهائلة من البيانات التي تم تدريب الروبوت الدردشة عليها، يمكن للأفراد جمع تفاصيل يمكن أن تمكّن من تنفيذ هجمات إلكترونية والتعرض لأمن الكيانات المستهدفة.
عرضت الدراسة مثالًا حيث تم تحفيز ChatGPT للكشف عن أنظمة تكنولوجيا المعلومات التي يستخدمها بنك محدد. باستخدام المعلومات المتاحة للجمهور، حدد الروبوت الدردشة أنظمة مختلفة تستخدمها البنك، مما يوضح كيف يمكن للمهاجم الاستفادة من ChatGPT لجمع معلومات استخباراتية لمراحل الهجوم الأولية للقرصنة الإلكترونية.
يحمل توليد النصوص الخبيثة، الذي يعد جانبًا محبوبًا من قدرات ChatGPT، مخاطر ضمنية أيضًا. أبرزت الدراسة الاستخدامات الضارة المحتملة مثل حملات الاحتيال عبر البريد الإلكتروني، ونشر الإشاعات من خلال مقالات الأخبار الزائفة، وإنشاء البريد المزعج، وحتى التنكر. لتوضيح هذا المخاطر، استخدم الباحثون ChatGPT لصياغة رسالة بريد إلكتروني للتصيّد تشجع المستلمين على فتح ملف مرفق يحتوي على برمجيات ضارة، مما أظهر بنجاح قدرة النموذج على إنتاج محتوى مضلل.
بالمثل، يمكن استغلال قدرات برمجة ChatGPT، على الرغم من كونها مذهلة، لأغراض شريرة. يمكن للمهاجمين الاستفادة من قدرة الروبوت الدردشة في توليد الشفرة لنشر التهديدات بسرعة، حتى بدون معرفة برمجة واسعة. حذرت الدراسة أيضًا من إمكانية توليد الشفرة المشوهة، والتي يمكن أن تعيق جهود محللي الأمان في اكتشاف الأنشطة الضارة وتجنب برامج مكافحة الفيروسات.
على الرغم من وجود إجراءات لمنع انتشار المحتوى المسيء وغير الأخلاقي، يمكن تلاعب ChatGPT للتعبير عن تصريحات جارحة وتمييزية إذا كان المستخدمون مصممين بما فيه الكفاية. من خلال التحايل على الحواجز، تمكن مؤلفو الدراسة من جعل الروبوت الدردشة يقوم بتعليقات سلبية حول مجموعة عرقية محددة.
بالإضافة إلى ذلك، فإن قدرة ChatGPT على المساعدة في إنشاء تطبيقات وخدمات ومواقع الويب يفتح الباب أمام الأنشطة الاحتيالية. يمكن للمهاجمين استغلال النموذج لتقليد البنية الحالية للمنصات، وتقديم الوصول المجاني لجذب المستخدمين الغافلين. يمكن أن يطور مثل هؤلاء الأشخاص تطبيقات تستهدف جمع المعلومات الحساسة أو تثبيت برامج ضارة على أجهزة المستخدمين.
على الرغم من أن ChatGPT يتضمن تدابير لمنع الكشف عن المعلومات الشخصية، فإن الدراسة أكدت مخاطر المشاركة العرضية للبيانات. يوضح المثال العملي لانقطاع ChatGPT في مارس 2020، حيث كان بإمكان بعض المستخدمين الوصول إلى عناوين من سجل المحادثات لمستخدم آخر، هذا يعتبر دليلًا على هذه المخاوف. علاوة على ذلك، يمكن للمهاجمين محاولة استخلاص جزء من بيانات التدريب باستخدام هجمات استخلاص العضوية، مما يزيد من مخاطر تعرض البيانات الشخصية.
جانب آخر مثير للقلق في كشف البيانات الخاصة يكمن في قدرة ChatGPT على الكشف عن معلومات حول حياة الشخصيات العامة. يتضمن ذلك المحتوى الاستثماري أو الضار، الذي يمكن أن يسبب تشويهًا لسمعة الأفراد ويسبب أضرارًا كبيرة.
مع استمرار المخاوف المتعلقة بمخاطر الذكاء الاصطناعي القائم على الإنتاج في الارتفاع، فإن فهم الآثار الأمنية المرتبطة بنماذج مثل ChatGPT أمر بالغ الأهمية. يلعب التعرف على هذه المخاطر ومعالجتها دورًا حاسمًا في استغلال إمكانات الذكاء الاصطناعي مع التخفيف من آثاره السلبية.