تصادق أعلى محكمة دستورية في فرنسا على مراقبة الذكاء الاصطناعي للألعاب الأولمبية ، مما يثير مخاوف بشأن الخصوصية وتشكيل تشريعات الاتحاد الأوروبي

تصادق أعلى محكمة دستورية في فرنسا على مراقبة الذكاء الاصطناعي للألعاب الأولمبية ، مما يثير مخاوف بشأن الخصوصية وتشكيل تشريعات الاتحاد الأوروبي

في تطور هام أشعل نقاشات حول حقوق الخصوصية ، فرضت المحكمة الدستورية العليا في فرنسا عقوبات على استخدام المراقبة المدعومة بالذكاء الاصطناعي (AI) خلال الألعاب الأولمبية المقبلة. يأتي هذا القرار بمثابة ضربة لنشطاء الخصوصية الذين أثاروا مخاوف بشأن الآثار المحتملة لأنظمة المراقبة التي تعتمد على الذكاء الاصطناعي.

قبل شهرين فقط ، أقر المجلس الوطني الفرنسي تشريعًا يسمح بالاستخدام التجريبي لتقنيات المراقبة المتقدمة في محاولة للحفاظ على الأمن في الألعاب ، والتي من المتوقع أن تجتذب حشدًا كبيرًا من حوالي 600000 شخص. تسمح القواعد المعتمدة حديثًا بتنفيذ المراقبة الآلية بكاميرات الفيديو ، حيث سيتم استخدام خوارزميات الذكاء الاصطناعي لمسح الصور في الوقت الفعلي للكشف عن الأنشطة المشبوهة مثل اندفاع الحشود والأمتعة غير المراقبة.

كان الدافع وراء هذه الإجراءات هو الفوضى التي أعقبت نهائي دوري أبطال أوروبا العام الماضي بين ليفربول وريال مدريد على ملعب فرنسا. تم إطلاق الغاز المسيل للدموع على المشجعين ، بمن فيهم الأطفال ، وأفاد العديد من المؤيدين بوقوع حوادث سرقة. أدت هذه الحوادث إلى زيادة المخاوف بشأن الأمن ، مما دفع الحكومة الفرنسية إلى استكشاف حلول مبتكرة.

في حين أن استخدام مراقبة الذكاء الاصطناعي في الألعاب الأولمبية كان مضاءً باللون الأخضر ، فقد حدد المجلس الدستوري الفرنسي أن التدابير تقتصر على الأحداث الرياضية أو الترفيهية أو الثقافية ، والهدف الأساسي هو منع مخالفات النظام العام. ستظل هذه اللوائح سارية حتى مارس 2025 ، مما يجعل فرنسا أول دولة داخل الاتحاد الأوروبي تتبنى المراقبة التي تعمل بالذكاء الاصطناعي. ومع ذلك ، واجه القرار معارضة شديدة من 38 منظمة حقوقية ، الذين يعتبرون هذه الخطوة “سابقة خطيرة لدول أوروبية أخرى”. في رسالة مفتوحة ، جادلت منظمات بارزة مثل منظمة العفو الدولية ، وهيومن رايتس ووتش ، و Big Brother Watch بأن المقترحات تشكل تهديدًا كبيرًا للحريات المدنية والمبادئ الديمقراطية.

أثارت المجموعات الحقوقية مخاوف من أن الكاميرات التي تعمل بالذكاء الاصطناعي قد تلتقط الحركات الشخصية عن غير قصد ، بما في ذلك أوضاع الجسم ، والمشية ، والإيماءات ، وبالتالي المساس بالحق في الخصوصية وحماية البيانات. تنبع مخاوفهم من سوء الاستخدام المحتمل أو الوصول غير المصرح به إلى هذه المعلومات الحساسة ، مما قد يكون له عواقب بعيدة المدى على الأفراد.

علاوة على ذلك ، فإن قرار فرنسا بالمضي قدمًا في مراقبة الذكاء الاصطناعي للألعاب الأولمبية ، بدعم من المحكمة الدستورية ، من المحتمل أن يؤثر على الشكل النهائي لقانون الذكاء الاصطناعي المقترح في الاتحاد الأوروبي. قامت لجنة من أعضاء البرلمان الأوروبي (MEPs) مؤخرًا بفحص التشريع وصوتت لصالح مجموعة من 12 تعديلاً ، يتضمن أحدها حظراً كاملاً على التعرف على الوجه في الوقت الفعلي.

وسيحدد التصويت المقبل في البرلمان الأوروبي بكامل هيئته ، والمقرر إجراؤه في يونيو ، مصير هذه التعديلات. بعد ذلك ، سيخضع التشريع لمزيد من التنقيح من خلال التعاون مع المفوضية الأوروبية والدول الأعضاء. رحبت الحكومة الفرنسية بقرار المحكمة الدستورية ، معتبرة أنه سيمكن من تحسين الهياكل الأمنية لدورة الألعاب الأولمبية العام المقبل. ومع ذلك ، فإن المناقشات الجارية حول مراقبة الذكاء الاصطناعي تسلط الضوء على التوازن الدقيق بين ضمان السلامة العامة وحماية حقوق الخصوصية الفردية.