حقق روبوت الدردشة ChatGPT التابع لشركة OpenAI مؤخرًا نتيجة ناجحة لمشكلة قانونية في إيطاليا ، لكن معركة الشركة ضد المنظمين الأوروبيين لم تنته بعد. يقوم المنظمون في جميع أنحاء أوروبا بالتحقيق في ممارسات حماية البيانات للشركات التي تبني روبوتات محادثة مماثلة ، مستشهدين بمجموعة من المخاوف من جمع بيانات التدريب غير المرخصة إلى روبوتات الدردشة التي تنشر معلومات مضللة. يتم تطبيق اللائحة العامة لحماية البيانات (GDPR) ، وهي واحدة من أقوى أطر الخصوصية القانونية في العالم ، في الاتحاد الأوروبي ، ويعمل المشرعون حاليًا على وضع قانون خصيصًا لمعالجة أنظمة الذكاء الاصطناعي مثل ChatGPT.
في حين أن اللائحة العامة لحماية البيانات هي مجموعة قوية من القوانين ، إلا أنها لم تُصاغ لمعالجة المشكلات الخاصة بالذكاء الاصطناعي. من المتوقع أن يعمل قانون الذكاء الاصطناعي (AIA) جنبًا إلى جنب مع الناتج المحلي الإجمالي وسيحكم أدوات الذكاء الاصطناعي وفقًا لمخاطرها المتصورة. يمكن تصنيف قواعد “النماذج الأساسية” و “أنظمة الذكاء الاصطناعي للأغراض العامة (GPAIs)” – وهما مصطلحان لأنظمة الذكاء الاصطناعي واسعة النطاق التي تتضمن نماذج لغات كبيرة – على أنها خدمات “عالية المخاطر”.
كانت المشكلة القانونية مع ChatGPT في إيطاليا ناتجة عن انتهاك الشركة لقواعد الناتج المحلي الإجمالي. اتهمت هيئة حماية البيانات الإيطالية (GPDP) شركة OpenAI بالسماح لـ ChatGPT بتقديم معلومات غير دقيقة أو مضللة ، والفشل في إخطار المستخدمين بممارسات جمع البيانات الخاصة بها ، والفشل في تلبية أي من المبررات القانونية الستة الممكنة لمعالجة البيانات الشخصية ، والفشل في منع الأطفال أقل من 13 عامًا من استخدام الخدمة. بعد أن وافقت OpenAI على تقييد الوصول إلى الخدمة في إيطاليا أثناء محاولتها إصلاح المشكلة ، عادت ChatGPT إلى البلاد في 28 أبريل. ومع ذلك ، أطلق المنظمون في ألمانيا وفرنسا وإسبانيا تحقيقاتهم الخاصة في ChatGPT ، وأنشأ مجلس حماية البيانات الأوروبي (EDPB) فريق عمل مخصصًا للمساعدة في تنسيق التحقيقات.
إن شعبية ChatGPT وهيمنتها الحالية على سوق الذكاء الاصطناعي تجعلها هدفًا جذابًا بشكل خاص ، ولكن لا يوجد سبب لعدم تعرض منافسيها والمتعاونين لها للتدقيق أيضًا. تتجاوز أحكام AIA حماية البيانات ، ومن شأن تعديل مقترح واحد أن يجبر الشركات على الكشف عن أي مواد محمية بحقوق الطبع والنشر مستخدمة لتطوير أدوات إنشاء الذكاء الاصطناعي. قد لا تدخل القوانين المصممة خصيصًا لتنظيم الذكاء الاصطناعي حيز التنفيذ في أوروبا حتى أواخر عام 2024.
في حين أن المشكلات القانونية الحالية لشركة OpenAI في أوروبا لم يتم حلها بالكامل ، فقد قدمت مثالًا لما تعتبره أوروبا سلوكًا مقبولًا لشركة AI حتى يتم وضع قوانين جديدة في الدفاتر. لا يزال لدى OpenAI أهداف يجب تحقيقها ، بما في ذلك إنشاء بوابة عمرية أكثر صعوبة لمنع القصر دون سن 13 عامًا والمطالبة بموافقة الوالدين للمراهقين القاصرين الأكبر سنًا. إذا فشل ، فقد يرى نفسه محجوبًا مرة أخرى.