اتخذت لجنة رئيسية من المشرعين في البرلمان الأوروبي خطوة مهمة نحو سن تشريعات رائدة تنظم أنظمة الذكاء الاصطناعي (AI). يُعرف هذا القانون باسم قانون الذكاء الاصطناعي الأوروبي ، ويمثل تطورًا رائدًا في السباق بين السلطات العالمية للتحكم الفعال في تقنيات الذكاء الاصطناعي ، والتي تتطور بسرعة. بينما وضعت الصين بالفعل قواعد لإدارة منتجات الذكاء الاصطناعي التوليدية مثل ChatGPT ، يمثل قانون الذكاء الاصطناعي الأوروبي أول تشريع من نوعه في العالم الغربي.
من خلال اتباع نهج قائم على المخاطر ، يحدد قانون الذكاء الاصطناعي التزامات مختلفة لأنظمة الذكاء الاصطناعي بناءً على مستوى المخاطر التي تشكلها. ويصنف تطبيقات الذكاء الاصطناعي إلى أربعة مستويات: مخاطر غير مقبولة ، ومخاطر عالية ، ومخاطر محدودة ، ومخاطر ضئيلة أو معدومة. تطبيقات المخاطر غير المقبولة محظورة بشكل افتراضي ولا يمكن نشرها داخل الاتحاد الأوروبي.
تشمل التطبيقات المحظورة أنظمة الذكاء الاصطناعي التي تستخدم تقنيات خادعة أو خادعة للتلاعب بالسلوك ، واستغلال نقاط الضعف لدى الأفراد أو مجموعات معينة ، واستخدام تصنيف القياسات الحيوية بناءً على سمات حساسة ، والانخراط في التقييم الاجتماعي أو تقييم الجدارة بالثقة ، والتنبؤ بالجرائم الجنائية أو الإدارية ، وإنشاء الوجه أو توسيعه. التعرف على قواعد البيانات دون الموافقة المستهدفة ، واستنتاج المشاعر في تطبيق القانون ، وإدارة الحدود ، ومكان العمل ، والتعليم.
إدراكًا للمخاوف المحيطة بنماذج الأساس مثل ChatGPT ، يقدم قانون الذكاء الاصطناعي متطلبات محددة لمقدميها. سيتم تكليف مطوري نماذج الأساس بتنفيذ فحوصات السلامة ، واعتماد تدابير حوكمة البيانات ، وتطبيق استراتيجيات التخفيف من المخاطر قبل إتاحة نماذجهم للجمهور. علاوة على ذلك ، يجب عليهم التأكد من أن بيانات التدريب المستخدمة لإبلاغ أنظمتهم تتوافق مع قانون حقوق النشر.
في حين أن موافقة البرلمان الأوروبي على قانون الذكاء الاصطناعي تعتبر علامة بارزة ، فمن المهم ملاحظة أن التشريع لا يزال أمامه طريق طويل قبل أن يصبح قانونًا. ومع ذلك ، يمثل القانون خطوة حاسمة نحو وضع مبادئ توجيهية لشركات ومنظمات الذكاء الاصطناعي داخل الاتحاد الأوروبي.
أثارت صناعة التكنولوجيا مخاوف بشأن النطاق الواسع لقانون الذكاء الاصطناعي ، خوفًا من أنه قد يلتقط عن غير قصد أشكالًا غير ضارة من الذكاء الاصطناعي. حذرت جمعية صناعة الكمبيوتر والاتصالات (CCIA) من أن تعديلات القانون تفترض أن فئات واسعة من الذكاء الاصطناعي خطرة بطبيعتها ، ومن المحتمل أن تُخضع تطبيقات الذكاء الاصطناعي المفيدة لمتطلبات صارمة أو حتى حظر.
يعتقد الخبراء أن قانون الذكاء الاصطناعي الأوروبي سيضع معيارًا عالميًا لتنظيم الذكاء الاصطناعي. ومع ذلك ، فإن الولايات القضائية الأخرى مثل الصين والولايات المتحدة والمملكة المتحدة تعمل أيضًا بسرعة على تطوير استجاباتها الخاصة لتنظيم الذكاء الاصطناعي. من المتوقع أن تراقب هذه الولايات القضائية مفاوضات قانون الذكاء الاصطناعي عن كثب وأن تصمم مناهجها الخاصة وفقًا لذلك.
صرح ديسي سافوفا ، رئيس قارة أوروبا لمجموعة التكنولوجيا في كليفورد تشانس ، أن قانون الذكاء الاصطناعي سيضع العديد من المبادئ الأخلاقية لمنظمة العفو الدولية موضع التنفيذ. سلطت سارة تشاندر ، كبيرة مستشاري السياسات في European Digital Rights ، الضوء على أن القانون سيتطلب الاختبار والتوثيق ومتطلبات الشفافية لنماذج الأساس مثل ChatGPT ، وبالتالي زيادة المساءلة لتطوير الذكاء الاصطناعي.
مع احتلال قانون الاتحاد الأوروبي للذكاء الاصطناعي مركز الصدارة ، من المرجح أن يلعب دورًا محوريًا في تشكيل المبادرات التشريعية للذكاء الاصطناعي في جميع أنحاء العالم ، تمامًا كما فعلت اللائحة العامة لحماية البيانات في مجال حماية البيانات. بينما تكافح البلدان في جميع أنحاء العالم مع تنظيم الذكاء الاصطناعي التوليدي ، فإن جهود الاتحاد الأوروبي مصممة للتأثير على المشهد الدولي ووضع المنطقة كجهة رائدة في وضع المعايير مرة أخرى.