تحقيق التوازن: Microsoft Economist يؤيدون لوائح منظمة العفو الدولية المقاسة بناءً على ضرر حقيقي

تحقيق التوازن: Microsoft Economist يؤيدون لوائح منظمة العفو الدولية المقاسة بناءً على ضرر حقيقي

في مناقشة حافزة للتفكير في قمة المنتدى الاقتصادي العالمي للنمو ، قدم كبير الاقتصاديين في Microsoft مايكل شوارتز حجة للتنظيم الحذر لتقنيات الذكاء الاصطناعي ، مشددًا على الحاجة إلى مشاهدة ضرر ملموس قبل تنفيذ تدابير صارمة. جاءت تصريحات شوارتز خلال جلسة بعنوان “النقاط الساخنة للنمو: تسخير ثورة الذكاء الاصطناعي التوليدية”. أثار موقفه جدلًا مثيرًا للاهتمام مع مذيع CNN زين آشر ، الذي شكك في فكرة انتظار حدوث الضرر قبل التصرف.

رسم شوارتز تشابهًا مع تنظيم رخص القيادة ، بحجة أنه تم تنفيذه فقط بعد وقوع العديد من حوادث السيارات التي أودت بحياة الأشخاص. وسلط الضوء على أهمية السماح بحد أدنى من الضرر يحدث لاكتساب فهم أعمق للمشاكل الفعلية المطروحة. وفقًا لشوارتز ، فإن فرض اللوائح قبل الأوان قد يعيق الابتكار ويفوق الفوائد المحتملة.

شدد الخبير الاقتصادي على أن اللوائح يجب أن تحقق توازنًا ، مما يضمن ألا تطغى تكلفة الامتثال على مزايا تقنية الذكاء الاصطناعي. أكد شوارتز أنه من أجل تبرير اللوائح ، يجب أن يكون هناك مستوى واضح من الضرر ينتج عنه ضرر بقيمة ألف دولار على الأقل. مع تعداد سكان العالم البالغ 8 مليارات نسمة ، حذر من التسرع في التنظيم دون سبب كاف.

يواجه المشرعون في جميع أنحاء العالم التحدي المتمثل في صياغة لوائح الذكاء الاصطناعي التي تقر بالضرر المحتمل مع استمرار تعزيز تقدم الذكاء الاصطناعي. نصحت لجنة التجارة الفيدرالية الأمريكية (FTC) بتوخي الحذر عند إنشاء حلول سياسة الذكاء الاصطناعي ، مشيرة إلى مخاوف بشأن عدم الدقة والتحيز والتمييز وممارسات المراقبة الغازية المتأصلة في بعض أدوات الذكاء الاصطناعي. في الآونة الأخيرة ، اقترح البيت الأبيض مخطط ميثاق حقوق الذكاء الاصطناعي ، معترفًا بأن بعض نتائج الذكاء الاصطناعي يمكن أن تكون ضارة للغاية ولكنها ليست بالضرورة حتمية.

للتخفيف من الأضرار التي يمكن الوقاية منها ، قدمت إدارة بايدن إرشادات لضمان أن الأنظمة الآلية لا تنتهك حقوق الجمهور أو الفرص أو الوصول إلى الاحتياجات الحرجة. في تطور هام ، وافق المشرعون الأوروبيون على صياغة قواعد صارمة للذكاء الاصطناعي ، يحتمل أن تصبح أول تشريع شامل للذكاء الاصطناعي في العالم. ستصنف القواعد المقترحة أدوات الذكاء الاصطناعي بناءً على مستويات المخاطر ، بهدف حماية الحقوق المدنية دون خنق الابتكار والتقدم الأساسي للذكاء الاصطناعي.

يبدو أن منظور شوارتز يقلل من أهمية الشعور بالإلحاح بين المشرعين لحماية الحقوق المدنية ، وبدلاً من ذلك يؤكد على أهمية منع الضرر النقدي. وهو يجادل ضد اللوائح التي تعطي الأولوية لتجنب ضرر بقيمة ألف دولار بينما تعرقل فوائد تقدر بملايين الدولارات للناس في جميع أنحاء العالم.

على الرغم من وجود دعاوى قضائية تسعى للحصول على تعويضات من مطوري أدوات الذكاء الاصطناعي ، بما في ذلك القضايا البارزة ، مثل دعوى حقوق الطبع والنشر الجماعية ضد Stability AI و Midjourney ، والتداعيات القانونية الناجمة عن تسرب بيانات ChatGPT من OpenAI ، لا يستبعد شوارز الحاجة إلى الذكاء الاصطناعي. اللوائح تمامًا. بصفته خبيرًا اقتصاديًا ، فإنه يدعو إلى اتباع نهج متوازن يأخذ في الاعتبار التكاليف والمكاسب من الذكاء الاصطناعي. ويؤكد دور اللوائح في منع الضرر الحقيقي الذي تسببه الجهات الخبيثة مع ضمان السلامة والاستخدام المسؤول لتكنولوجيا الذكاء الاصطناعي.

خلال الجلسة ، سلط شوارتز الضوء أيضًا على الالتزام المشترك بين Microsoft و OpenAI لإعطاء الأولوية لسلامة الذكاء الاصطناعي والتطبيقات المفيدة. وإدراكًا منه لأهمية السلامة التكنولوجية ، شدد على الحاجة إلى اليقظة والحذر في جميع مراحل تطوير الذكاء الاصطناعي ونشره.

بشكل عام ، يسلط منظور شوارتز الضوء على التوازن الدقيق المطلوب عند تنظيم الذكاء الاصطناعي ، وحث المشرعين على الانتباه إلى كل من الأضرار المحتملة والفوائد التي تقدمها تقنية الذكاء الاصطناعي للمجتمع.