يتقدم الذكاء الاصطناعي (AI) بسرعة ، وتتزايد المخاوف بشأن إمكاناته السلبية. حتى رئيس Google ، Sundar Pichai ، اعترف بفقدان النوم بسبب مخاطر الذكاء الاصطناعي ، وانتقد Elon Musk الشريك المؤسس لشركة Google ، لاري بيدج ، لعدم أخذ أمان الذكاء الاصطناعي على محمل الجد بما فيه الكفاية. طالب الآلاف من الموقعين على خطاب من معهد Future of Life بوقف اختياري لمدة ستة أشهر لإنشاء أنظمة AI “عملاقة” أقوى من GPT-4 ، وهو النظام الذي يدعم ChatGPT و chatbot المدمج مع محرك بحث Bing من Microsoft ، مشيرة إلى احتمال “فقدان السيطرة على حضارتنا”.
لا تقتصر المخاطر التي يشكلها الذكاء الاصطناعي على المعلومات المضللة الضارة أو الاحتيال ، بل تمتد إلى تطوير “Godlike AI” و “الذكاء العام الاصطناعي” (AGI) ، وهو نظام يمكن أن يتعلم ويتطور بشكل مستقل ، ويولد معرفة جديدة أثناء تقدمه. يمكن أن يؤدي الذكاء الاصطناعي العام إلى تأثير “دولاب الموازنة” ، حيث تتحسن قدرة النظام بشكل أسرع وأسرع ، ويحتمل أن تصل إلى ارتفاعات لا يمكن تصورها للبشرية أو تنحرف عن القيم الأخلاقية الإنسانية.
قد تجعل القوة الخام للذكاء الاصطناعي المتطور واحدة من عدد قليل من تقنيات “الطبقة المزدوجة” ، مثل الطاقة النووية أو الكيمياء الحيوية ، التي تتمتع بإمكانيات تدميرية كافية حتى أن الاستخدامات السلمية للذكاء الاصطناعي تحتاج إلى التحكم فيها ومراقبتها. بينما تحاول شركات الذكاء الاصطناعي مثل OpenAI مواءمة اهتمامات وأفعال أنظمتها مع القيم الإنسانية ، فإن السهولة التي يمكن للمستخدمين من خلالها تجاوز النظام تظهر حدوده.
قد يكون حل مشكلة المحاذاة أمرًا ملحًا ، حيث يخشى كبار الباحثين من ظهور الذكاء الاصطناعي العام في وقت أقرب مما نعتقد. يحذر إيان هوغارث ، المستثمر والمؤلف المشارك لتقرير حالة الذكاء الاصطناعي السنوي ، من أن الذكاء الاصطناعي العام قد يظهر في وقت أقرب مما نعتقد ، وأن كبار الباحثين قلقون من أننا قد نكون قريبين جدًا. حتى بيتشاي يعترف بأن Google لا تفهم تمامًا كيف ينتج الذكاء الاصطناعي الخاص بها استجابات معينة ، وأن فهم كيفية تحقيق أنظمة الذكاء الاصطناعي لنتائجها أمر صعب. هذا يعني أنه يمكن الوصول إلى AGI بشكل أسرع من المتوقع.
تنظيم تطوير الذكاء الاصطناعي أمر ضروري. بينما يجادل البعض ضد فرض حظر على تطوير الذكاء الاصطناعي ، يتفق كلا الجانبين على أنه يجب أن يكون هناك تنظيم لتطوير الذكاء الاصطناعي للتحكم في أنظمة الذكاء الاصطناعي القوية والتأكد من أن استخداماتها ونتائجها تتماشى مع القيم الإنسانية. يقول كونور ليهي ، الرئيس التنفيذي لشركة Conjecture ، وهي شركة أبحاث مكرسة للتطوير الآمن للذكاء الاصطناعي وموقع آخر على خطاب معهد Future of Life ، إن المشكلة ليست سيناريوهات محددة ولكنها عدم القدرة على التحكم في الأنظمة التي تم إنشاؤها.
تحاول شركات الذكاء الاصطناعي مواءمة أنظمتها مع القيم الإنسانية ، ولكن يجب أن تكون هناك عواقب إذا تجاوز الذكاء الاصطناعي الحد. أشار بيتشاي إلى الحاجة إلى إطار عالمي على غرار الأسلحة النووية ، وأشار بيسانو ، الرئيس التنفيذي لميلا – معهد كيبيك للذكاء الاصطناعي – إلى إجراء “محادثة على نطاق دولي ، على غرار ما فعلناه مع الطاقة النووية”. تعتبر المخاطر التي يشكلها الذكاء الاصطناعي كبيرة بما يكفي لدرجة أنه حتى الاستخدامات السلمية للذكاء الاصطناعي تحتاج إلى التحكم فيها ومراقبتها ، على غرار الطاقة النووية أو الكيمياء الحيوية.