يواجه Chatbot الخاص بـ OpenAI التدقيق في مخاوف البيانات الشخصية: ما تحتاج إلى معرفته

يواجه Chatbot الخاص بـ OpenAI التدقيق في مخاوف البيانات الشخصية: ما تحتاج إلى معرفته

اكتسبت الدردشة النصية التوليدية الخاصة بـ OpenAI ، ChatGPT ، شعبية هائلة على مدار الأشهر الستة الماضية ، لكن المخاوف تتزايد بشأن مخاطر تدريب النظام على البيانات الشخصية التي يتم الحصول عليها من الويب. يبحث منظمو البيانات في بلدان مختلفة الآن في كيفية قيام OpenAI بجمع البيانات التي تستخدمها لتدريب نماذجها اللغوية الكبيرة ، ودقة الإجابات التي تقدمها حول الأشخاص ، ومخاوف قانونية أخرى بشأن استخدام أنظمة النصوص التوليدية الخاصة بها.

في أوروبا ، تتطلب قوانين القانون العام لحماية البيانات (GDPR) من الشركات والمؤسسات توضيح الأسباب القانونية للتعامل مع المعلومات الشخصية ، والسماح للأفراد بالوصول إلى المعلومات المتعلقة بهم ، وإبلاغهم بكيفية استخدام معلوماتهم ، والمطالبة بتصحيح الأخطاء. كان استخدام المعلومات الشخصية للأشخاص في بيانات التدريب مجال اهتمام مبكر لمنظمي الاتحاد الأوروبي.

نظرًا لأن الأشخاص جربوا ChatGPT ، فقد واجهوا مجموعة من المشكلات المحتملة. يحذر OpenAI من أن برنامج الدردشة الآلي قد يقدم معلومات غير دقيقة ، وقد وجد الناس أنه يختلق وظائف وهوايات ، ويولد مقالات صحفية كاذبة حتى أن المؤلفين البشريين المزعومين تساءلوا عن كونها حقيقية. أصدر ChatGPT أيضًا بيانات غير صحيحة عن الأفراد ، مما تسبب في دعاوى تشهير.

منعت شركات مثل Samsung الموظفين من استخدام أدوات الذكاء الاصطناعي التوليدية ، جزئيًا بسبب مخاوف بشأن تخزين البيانات على خوادم خارجية وخطر الكشف عن أسرار الشركة للمستخدمين الآخرين. استجابةً للتدقيق ، أدخلت OpenAI أدوات وعمليات تسمح للأشخاص بمزيد من التحكم في بياناتهم.

قدمت OpenAI الآن نموذج طلب إزالة البيانات الشخصية بشكل أساسي لطلب إزالة المعلومات من الإجابات التي يوفرها ChatGPT للمستخدمين ، بدلاً من بيانات التدريب الخاصة به. أدخلت OpenAI أيضًا إعدادًا جديدًا للسماح لأي شخص بإيقاف استخدام محفوظات الدردشة في نماذج اللغات الكبيرة المستقبلية كبيانات تدريبية. هذا يعني أن أي بيانات تدخلها في ChatGPT ، مثل معلومات عنك ، وحياتك ، وعملك ، لن تظهر مرة أخرى في التكرارات المستقبلية لنماذج اللغات الكبيرة لـ OpenAI.

ومع ذلك ، يعتقد بعض الخبراء أن تغييرات OpenAI تتعامل فقط مع “الثمار الدانية” عندما يتعلق الأمر بحماية البيانات. يقول دانيال لوفر ، كبير محللي السياسات في منظمة Access Now غير الربحية للحقوق الرقمية ، إن القضية الأكثر تعقيدًا والنظامية المتعلقة بكيفية استخدام بيانات الأشخاص لتدريب هذه النماذج لم تتم معالجتها بشكل كافٍ. تقول صفحة مركز مساعدة OpenAI: “قد يكون للأفراد أيضًا الحق في الوصول إلى معلوماتهم الشخصية التي قد يتم تضمينها في معلومات التدريب الخاصة بنا أو تصحيحها أو تقييدها أو حذفها أو نقلها”. ومع ذلك ، فإن الأشخاص الذين طلبوا بالفعل بياناتهم من OpenAI لم يتأثروا بردودهم ، ويقول منظم البيانات الإيطالي إن OpenAI يزعم أنه “من المستحيل تقنيًا” تصحيح الأخطاء في الوقت الحالي.