يحذر كبير المسؤولين الرقميين بوزارة الدفاع من الاستخدام غير المقيد لنماذج اللغة الكبيرة والذكاء الاصطناعي

يحذر كبير المسؤولين الرقميين بوزارة الدفاع من الاستخدام غير المقيد لنماذج اللغة الكبيرة والذكاء الاصطناعي

استحوذ ظهور النماذج اللغوية الكبيرة ووكلاء الذكاء الاصطناعي التوليدي ، مثل ChatGPT ، على انتباه الجمهور ، لكنه أثار أيضًا مخاوف بشأن إساءة استخدامها المحتملة. أعرب كريج مارتيل ، رئيس قسم الذكاء الرقمي والذكاء الاصطناعي بوزارة الدفاع ، مؤخرًا عن مخاوفه بشأن هذه الأدوات وتأثيرها على المجتمع والأمن القومي. يحذر Martell ، الذي يتمتع بخبرة في الأوساط الأكاديمية بالإضافة إلى إدارة التعلم الآلي في Lyft ، من أن هذه الأدوات يمكن أن تحدث فوضى عميقة في جميع أنحاء المجتمع إذا لم يتم استخدامها مع الضمانات المناسبة.

مارتيل “خائف حتى الموت” بشأن الكيفية التي قد يستخدم بها الناس ChatGPT ووكلاء الذكاء الاصطناعي الآخرين الذين يواجهون المستهلك. في حين أن هذه الأدوات يمكن أن تستجيب للمطالبات البسيطة بإجابات نصية طويلة ، إلا أنها لا تنتج دائمًا محتوى سليمًا واقعيًا ، لأنها تسحب المعلومات من مصادر أنشأها الإنسان. يخشى Martell من أن الناس قد يعتمدون بشكل كبير على المعلومات التي تولدها هذه المحركات ، حتى لو كانت غير دقيقة. علاوة على ذلك ، يحذر من أن الخصوم الذين يسعون إلى إدارة حملات التأثير التي تستهدف الأمريكيين يمكنهم استخدام هذه الأدوات لتأثير كبير في التضليل الإعلامي. المحتوى الذي تنتجه النماذج اللغوية الكبيرة مكتوب بخبرة بحيث يمكن بسهولة أن يدفع علم نفس الناس إلى التفكير فيه على أنه موثوق ، حتى لو لم يكن كذلك.

يحذر مارتيل من أنه أثناء استخدام هذه الأدوات يمكن أن يبدو وكأنه تبادل مع إنسان ، إلا أنها تفتقر إلى الفهم البشري للسياق. كان آزا راسكين قادرًا على الظهور كطفل يبلغ من العمر 13 عامًا والحصول على نموذج لغوي كبير لإعطائه نصائح حول كيفية إغواء رجل يبلغ من العمر 45 عامًا ، مما يوضح مدى سهولة خداع هذه الأدوات.

يتولى مكتب رئيس الذكاء الرقمي والاصطناعي ، الذي يرأسه مارتيل ، المسؤولية الأساسية عن جهود الذكاء الاصطناعي في وزارة الدفاع وجميع البنية التحتية للكمبيوتر وتنظيم البيانات التي تدخل في هذه الجهود. في حديثه في حدث TechNetCyber التابع لـ AFCEA في بالتيمور ، دعا مارتيل الصناعة إلى تطوير آليات الكشف للتمييز بين المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي والمحتوى الذي ينشئه الإنسان. وشدد على أهمية البنية التحتية لمشاركة البيانات والسياسات في تحقيق تطلعات وزارة الدفاع للقيادة والسيطرة على جميع المجالات المشتركة (JADC2).

بينما يعتقد البعض ، مثل اللفتنانت جنرال روبرت سكينر ، رئيس DISA ، أن الذكاء الاصطناعي يمثل تحديًا يمكن لوزارة الدفاع أن ترتقي إليه ، يحذر مارتيل من الاعتماد المفرط على الذكاء الاصطناعي ويؤكد على الحاجة إلى مراقبة الأصول التي يقودها الإنسان. وهو يعتقد أن الذكاء الاصطناعي هو أحد الأصول التي يحركها الإنسان بشكل كبير وأن سهولة استخدام هذه الأدوات تنقل فكرة أن المستخدم لا يحتاج إلى القيام بالعمل الشاق المتمثل في التدريب والمراقبة. لا يوجد نموذج ينجو من أول اتصال بالعالم ، وكل نموذج تم بناؤه على الإطلاق أصبح قديمًا بالفعل بحلول وقت نشره ، حيث تم تدريبه على بيانات تاريخية قديمة. لذلك ، نحتاج إلى بناء أدوات تسمح بمراقبة الأنظمة لضمان استمرارها في تحقيق القيمة التي دفعت مقابلها في المقام الأول.

في الختام ، تتمتع النماذج اللغوية الكبيرة ووكلاء الذكاء الاصطناعي التوليدي مثل ChatGPT بإمكانيات هائلة ، لكن إساءة استخدامها يمكن أن يؤدي إلى عواقب وخيمة. بينما نتحرك نحو عالم يحركه الذكاء الاصطناعي بشكل أكبر ، من الأهمية بمكان وضع إجراءات وقائية وآليات كشف مناسبة لضمان استخدام هذه الأدوات بشكل مسؤول.