منعت شركة Samsung ، الشركة التكنولوجية الرائدة ، موظفيها مؤخرًا من استخدام أدوات الذكاء الاصطناعي التوليدية مثل ChatGPT أو Google Bard. يأتي هذا بعد عدة تسريبات غير مقصودة للبيانات حيث قام الموظفون عن طريق الخطأ بتسريب معلومات سرية لشركة Samsung إلى ChatGPT عدة مرات. تم الإبلاغ عن المذكرة المسربة إلى موظفي Samsung حول السياسات الجديدة المتعلقة باستخدام الذكاء الاصطناعي في مكان العمل من قبل Mark Gurman من Bloomberg ، ومنذ ذلك الحين أكدت Samsung قرار منع الموظفين من استخدام أدوات الذكاء الاصطناعي التوليدية.
دفعت تسريبات البيانات غير المقصودة شركة Samsung إلى اتخاذ تدابير لمنع وقوع حوادث مماثلة مرة أخرى. في أبريل ، أفيد أن موظفي Samsung كانوا يستخدمون ChatGPT لإصلاح أخطاء الترميز وتحديد الأعطال في رقائقهم. لسوء الحظ ، أصبحت البيانات التي تم إدخالها في chatbot جزءًا من مجموعة البيانات الهائلة التي يتم تدريب نموذج GPT-4 الخاص بـ ChatGPT عليها ، مما يعرض معلومات Samsung السرية لخطر الكشف عنها للجمهور. في حالة منفصلة ، استخدم موظف Samsung ChatGPT لتحويل ملاحظات الاجتماع إلى عرض تقديمي. ومع ذلك ، مرة أخرى ، أصبحت البيانات التي تم إدخالها في chatbot جزءًا من بيانات المستخدم التي تجمعها OpenAI ، والتي تذكرها صراحةً في شروط الخدمة الخاصة بها ، مما يعرض معلومات Samsung لخطر الكشف عنها للجمهور.
تسلط تسريبات البيانات غير المقصودة من قبل موظفي Samsung الضوء على المخاطر الأمنية المرتبطة باستخدام أدوات الذكاء الاصطناعي التوليدية في مكان العمل. رداً على التسريبات ، ورد أن سامسونج أجرت دراسة استقصائية داخلية وجدت أن 65٪ من المستجيبين وافقوا على أن الذكاء الاصطناعي التوليدي والأدوات المماثلة تشكل خطرًا أمنيًا خطيرًا. من المحتمل أن تكون نتيجة هذا الاستطلاع قد أثرت في قرار حظر استخدام هذه الأدوات.
للبقاء آمنًا أثناء استخدام ChatGPT أو Google Bard أو أي أداة من أدوات الذكاء الاصطناعي ، من الضروري أن تتذكر أن البيانات يتم تخزينها دائمًا في مكان ما. على الرغم من أن الشركات بدأت في تغيير طريقة تعاملها مع هذه البيانات ، فإن أفضل طريقة هي عدم إخبار أو كتابة أي شيء في برنامج الدردشة الآلي أنك لن تشعر بالراحة مع معرفة الأشخاص الآخرين. على سبيل المثال ، لدى ChatGPT الآن خيار تعطيل سجل الدردشة والتدريب وحذف المحادثات بعد 30 يومًا ، ولكن من الضروري توخي الحذر بشأن المعلومات التي تشاركها.
في الختام ، فإن قرار Samsung بحظر الموظفين من استخدام أدوات الذكاء الاصطناعي التوليدية مثل ChatGPT أو Google Bard يسلط الضوء على المخاطر الأمنية المرتبطة باستخدام هذه الأدوات في مكان العمل. من الأهمية بمكان إدراك المخاطر المرتبطة باستخدام أدوات الذكاء الاصطناعي واتخاذ الاحتياطات اللازمة لحماية المعلومات الحساسة. مع استمرار تطور تقنية الذكاء الاصطناعي ، من المحتمل أن تقوم المزيد من الشركات بتنفيذ سياسات مماثلة لمنع تسرب البيانات غير المقصودة وحماية المعلومات السرية.