يواجه الكونجرس تحدي تنظيم الذكاء الاصطناعي: تجاوز التعقيد ووجهات نظر الحزبين

يواجه الكونجرس تحدي تنظيم الذكاء الاصطناعي: تجاوز التعقيد ووجهات نظر الحزبين

في التطورات الأخيرة ، عقدت لجنتان مؤثرتان في مجلس الشيوخ الأمريكي جلسات استماع في وقت واحد حول الذكاء الاصطناعي (AI) في 16 مايو ، لتسليط الضوء على جوانب مختلفة من تنظيم الذكاء الاصطناعي وتنفيذه. بينما ركزت إحدى اللجان على الحاجة إلى تنظيم استخدام الذكاء الاصطناعي في القطاع الخاص ، قامت الأخرى باستكشاف التحديات التي تواجهها الحكومة الفيدرالية في استخدام الذكاء الاصطناعي بشكل فعال. شددت جلسات الاستماع هذه على أهمية فهم الكونجرس للطبيعة المعقدة للذكاء الاصطناعي وإدراك المخاطر والفوائد المحتملة المرتبطة بإشرافه.

عقدت اللجنة القضائية الفرعية المعنية بالخصوصية والتكنولوجيا والقانون جلسة استماع بعنوان “الإشراف على الذكاء الاصطناعي: قواعد الذكاء الاصطناعي” ، حيث شارك الشهود ، بمن فيهم الرئيس التنفيذي لشركة OpenAI ، سام التمان ، في مناقشات مع أعضاء مجلس الشيوخ. والجدير بالذكر أن أعضاء مجلس الشيوخ من كلا جانبي الممر أظهروا إجماعًا نادرًا من الحزبين فيما يتعلق بضرورة اللوائح الفيدرالية للذكاء الاصطناعي المنتشر على نطاق واسع مثل ChatGPT 5. وقد أدركوا أن نهج عدم التدخل في الذكاء الاصطناعي يمكن أن يؤدي إلى غزو شديد للخصوصية والتلاعب بالشخصية. السلوك ، وحتى التهديدات للديمقراطية الأمريكية.

كانت إحدى وجهات النظر الشائعة التي أعرب عنها أعضاء مجلس الشيوخ هي الاعتراف بفهمهم المحدود للذكاء الاصطناعي ، مما يجعل التنظيم الفعال دون خبرة متخصصة أمرًا صعبًا. وبالتالي ، ظهر اقتراح إنشاء وكالة مستقلة مخولة لتنظيم الذكاء الاصطناعي من خلال الترخيص والإنفاذ ، مع النظر في خيارات مثل لجنة التجارة الفيدرالية (FTC) أو لجنة الاتصالات الفيدرالية (FCC) التي تم تمكينها حديثًا.

في الوقت نفسه ، أجرت لجنة الأمن الداخلي والشؤون الحكومية محادثة مميزة تميزت بنبرات أكثر حزبية. تركزت المناقشات حول ممارسات جمع البيانات الحكومية ، والضغوط السياسية المفروضة على الصناعة الخاصة ، والمخاوف بشأن الفصل في المعلومات المضللة. كان من أبرز الأحداث في جلسة الاستماع شهادة البروفيسور دانييل هو بكلية الحقوق بجامعة ستانفورد ، التي كشفت أبحاثها عن تأخر الحكومة الفيدرالية الكبير في خبرة الذكاء الاصطناعي مقارنة بالقطاع الخاص.

يثير هذا التباين سؤالًا مهمًا: كيف يمكن لوكالة تابعة للسلطة التنفيذية أن تنظم الذكاء الاصطناعي بشكل فعال إذا كانت الحكومة الفيدرالية تفتقر إلى الفهم الكافي للاستخدام المسؤول للذكاء الاصطناعي؟

لمعالجة هذا السؤال ، من الضروري دراسة الخصائص المحتملة لوكالة إشراف افتراضية على الذكاء الاصطناعي. مع إدراك أن التطوير غير الموجه للذكاء الاصطناعي يمكن أن يؤدي إلى مشاكل مجتمعية لا يمكن للسوق وحده حلها ، يصبح من الواضح أن أي وكالة تنظيمية محتملة للذكاء الاصطناعي ستتطلب تفويضًا صريحًا للسلطة. ويضيف الإلغاء أو الإلغاء المحتمل لعقيدة احترام شيفرون ، التي تتعلق بتفسيرات الوكالات الفيدرالية لقوانين التفويض الخاصة بها ، مزيدًا من التعقيد.

يواجه الكونغرس تقليديًا تحديات في تنظيم نفس الموضوع بشكل متكرر بسبب الصعوبات في تحقيق الأغلبية في القضايا الخلافية والعواقب السلبية للسياسات غير الفعالة. في حين أن إنشاء وكالة فيدرالية قوية لها سلطات عامة قد يبدو أمرًا جذابًا ، إلا أنه يثير مخاوف بشأن التحيز السياسي ونقص الخبرة في الموضوع داخل الحكومة. بدلاً من ذلك ، يمكن ضمان الإجماع من خلال إنشاء وكالة جديدة بدعم تشريعي واسع.

يجب أن يحافظ الكونجرس على المرونة من خلال مقاومة الدافع لتفويض السلطة الدائمة لخبراء السلطة التنفيذية الذين لا يمتلكون حاليًا المعرفة اللازمة. بدلاً من ذلك ، يجب أن ينصب التركيز على تنفيذ القيود الهيكلية التي تتضمن شرط إعادة التفويض نصف السنوي للوكالة التنظيمية الجديدة للذكاء الاصطناعي ، جنبًا إلى جنب مع إعداد التقارير والرقابة الصارمة من الكونجرس. من خلال وضع حدود واضحة لإشراف الوكالة ، وإنفاذها ، والإبلاغ عن استخدام كل من القطاع الخاص والفرع التنفيذي للذكاء الاصطناعي ، يمكن للكونغرس تعزيز بيئة مواتية للابتكار مع الحفاظ على الميزة الاستراتيجية لأمريكا على المنافسين العالميين.

لضمان النجاح ، يجب أن يتبنى الكونجرس نهجًا يؤكد على التنظيم المستمر من خلال تشريعات مدروسة ومستهدفة بدلاً من تمرير قانون شامل والتخلي عن السيطرة على التفاصيل. بهذه الطريقة ، سيستفيد الجميع من مشهد ذكاء اصطناعي جيد التنظيم يعطي الأولوية للتقدم المجتمعي والحقوق الفردية.