تمامًا كما تكافح شركة أوبن إيه آي مع تداعيات قضية الحظر في إيطاليا ، أفادت تقارير أن شركة عملاقة تكنولوجية أخرى ، سامسونج للإلكترونيات ، اتخذت خطوات لمنع موظفيها من استخدام أدوات الذكاء الاصطناعي التوليدية ، بما في ذلك chatGPT المعروف على نطاق واسع. يأتي القرار في أعقاب مخاوف بشأن خرق محتمل للمعلومات السرية داخل الشركة الكورية الجنوبية.
وفقًا لـ Bloomberg ، أصدرت Samsung مذكرة سياسة تحدد الحظر المفروض على أدوات الذكاء الاصطناعي التوليدية الشهيرة ، بما في ذلك chatGPT من OpenAI و Alphabet Inc.’s Google Bard و Bing AI التابع لشركة Microsoft. أعربت الشركة عن قلقها من أن نقل البيانات إلى الأنظمة الأساسية التي تعمل بالذكاء الاصطناعي والمُستضافة على خوادم خارجية قد يؤدي إلى تسرب البيانات أو الكشف غير المصرح به للمستخدمين الآخرين. وبالتالي ، وضعت Samsung لوائح تحظر استخدام أدوات الذكاء الاصطناعي التوليفية على شبكاتها الداخلية وأجهزة الكمبيوتر والأجهزة اللوحية والهواتف الذكية المملوكة للشركة. والجدير بالذكر أن هذا الحظر لا يشمل الأجهزة الاستهلاكية مثل هواتف Android وأجهزة الكمبيوتر المحمولة التي تعمل بنظام Windows.
أكدت مذكرة السياسة من Samsung على أهمية الالتزام الجاد بإرشادات الأمان. قد يؤدي عدم الامتثال لهذه الإرشادات إلى انتهاك معلومات الشركة أو المساومة عليها ، مما قد يؤدي إلى اتخاذ إجراءات تأديبية ، بما في ذلك إنهاء التوظيف. يتمثل الهدف الأساسي لشركة Samsung في حماية أصول البيانات الحساسة الخاصة بها ومنع أي وصول غير مصرح به أو تسريبات قد تضر بسمعة الشركة وميزتها التنافسية.
تعكس خطوة Samsung لحظر أدوات الذكاء الاصطناعي التوليدية اتجاهًا متزايدًا بين الشركات الكبرى التي تعرب عن مخاوفها بشأن استخدام هذه التكنولوجيا. في وقت سابق من هذا العام ، نفذت العديد من بنوك وول ستريت ، بما في ذلك JPMorgan Chase & Co. و Bank of America Corp. و Citigroup Inc. ، قيودًا أو حظرًا تامًا على استخدام chatGPT ، مستشهدة بمخاوف مماثلة تتعلق بأمان البيانات والخصوصية.
اتخذت إيطاليا أيضًا إجراء تنظيميًا من خلال حظر استخدام chatGPT بسبب مخاوف تتعلق بالخصوصية. ومع ذلك ، ألغت الدولة هذا القرار مؤخرًا ، مشيرة إلى الاعتبارات المعقدة المحيطة باستخدام تقنية الذكاء الاصطناعي التوليدية وإعادة التقييم المستمرة للمخاطر المرتبطة بها.
يؤكد قرار Samsung بحظر استخدام أدوات الذكاء الاصطناعي التوليدية التزام الشركة بأمن البيانات والخصوصية. نظرًا لأن المؤسسات تستفيد بشكل متزايد من تقنيات الذكاء الاصطناعي ، فهناك إدراك متزايد للحاجة إلى تنفيذ تدابير أمنية قوية لحماية أصول البيانات القيمة. من خلال حظر استخدام أدوات الذكاء الاصطناعي التوليدية داخل شبكاتها وأجهزتها الداخلية ، تهدف Samsung إلى التخفيف من المخاطر المحتملة ، والتأكد من أن المعلومات السرية تظل آمنة وغير عرضة للوصول غير المصرح به أو التسرب.
يُعد الحظر الذي تفرضه Samsung أيضًا بمثابة تذكير للصناعة عمومًا بأن نشر تقنيات الذكاء الاصطناعي يتطلب دراسة متأنية وتقييمًا للمخاطر المحتملة. نظرًا لأن الشركات تتبنى فوائد الحلول التي تعتمد على الذكاء الاصطناعي ، فيجب عليها في الوقت نفسه معالجة المخاوف المتعلقة بخصوصية البيانات والأمان والآثار الأخلاقية. هذه التدابير الاستباقية ضرورية لتعزيز الثقة بين الموظفين والعملاء وأصحاب المصلحة ، فضلاً عن الحفاظ على ميزة تنافسية في عالم رقمي يعتمد بشكل متزايد على البيانات.
في الختام ، يعكس حظر Samsung Electronics لأدوات الذكاء الاصطناعي التوليدية ، بما في ذلك chatGPT ، التزامها بحماية المعلومات السرية والحماية من انتهاكات البيانات المحتملة. من خلال تنفيذ هذه اللوائح ، تنضم Samsung إلى قائمة متزايدة من الشركات التي تتخذ خطوات استباقية لمواجهة التحديات المتطورة المرتبطة بتقنيات الذكاء الاصطناعي. مع استمرار التوسع في استخدام الذكاء الاصطناعي ، يجب على المؤسسات أن تظل يقظة في تقييم وإدارة المخاطر لضمان الاستخدام المسؤول والآمن لهذه الأدوات القوية.