خبير اقتصادي في Microsoft يحذر من إساءة استخدام الذكاء الاصطناعي من قبل الجهات الخبيثة

خبير اقتصادي في Microsoft يحذر من إساءة استخدام الذكاء الاصطناعي من قبل الجهات الخبيثة

يعمل الذكاء الاصطناعي (AI) على تغيير طريقة عيشنا وعملنا وتفاعلنا مع بعضنا البعض بسرعة ، ولكنه يمثل أيضًا مخاطر جديدة قد يكون لها عواقب وخيمة. خلال حلقة نقاشية في المنتدى الاقتصادي العالمي في جنيف ، أعرب كبير الاقتصاديين في Microsoft ، مايكل شوارتز ، عن قلقه بشأن احتمال أن يتسبب الذكاء الاصطناعي في ضرر حقيقي إذا وقع في الأيدي الخطأ. قال شوارتز إنه في حين أن للذكاء الاصطناعي إمكانات هائلة لتحسين حياتنا ، فإنه يمثل أيضًا مخاطر جديدة يجب معالجتها من خلال التنظيم والضمانات الفعالة.

قال شوارتز: “أنا واثق من أن الفاعلين السيئين سيستخدمون الذكاء الاصطناعي ، ونعم سيتسبب في ضرر حقيقي”. “يمكن أن يحدث الكثير من الضرر في أيدي مرسلي البريد العشوائي من خلال الانتخابات وما إلى ذلك.”

أشار شوارتز إلى أن الذكاء الاصطناعي يستخدم بالفعل في مجموعة من التطبيقات ، من الإعلانات المخصصة إلى الأسلحة المستقلة ، ومن المتوقع أن ينمو استخدامه فقط. وشدد على الحاجة إلى تنظيم دقيق لضمان تطوير الذكاء الاصطناعي ونشره بطريقة مسؤولة تزيد من الفوائد مع تقليل المخاطر إلى الحد الأدنى.

قال شوارتز: “يجب تنظيم الذكاء الاصطناعي بشكل واضح ، لكن يجب أن نكون حذرين وننتظر حتى تسبب التكنولوجيا ضررًا حقيقيًا”. “بمجرد أن نرى ضررًا حقيقيًا ، علينا أن نسأل أنفسنا السؤال البسيط:” هل يمكننا تنظيم ذلك بطريقة تكون فيها الأشياء الجيدة التي ستمنعها هذه اللائحة أقل أهمية؟ “

وأضاف شوارتز أن أي تنظيم للذكاء الاصطناعي يجب أن يأخذ في الاعتبار الفوائد والتكاليف التي يتكبدها المجتمع. وحذر من أن صانعي السياسات يجب أن يكونوا حريصين على عدم التنظيم المباشر لمجموعات التدريب على الذكاء الاصطناعي ، لأن ذلك قد يكون له عواقب وخيمة.

وقال: “إذا اتخذ الكونجرس تلك القرارات بشأن مجموعات التدريب ، حظًا سعيدًا لنا”.

على الرغم من المخاطر ، سلط شوارتز الضوء أيضًا على إمكانات الذكاء الاصطناعي في جعل البشر أكثر إنتاجية وتحسين نوعية حياتنا. وجادل بأن الذكاء الاصطناعي سيحدث ثورة في الطريقة التي تعمل بها معظم الشركات ، لكنه حذر من أن الأمر سيستغرق بعض الوقت حتى تدخل هذه التغييرات حيز التنفيذ.

قال شوارتز: “أحب أن أقول إن الذكاء الاصطناعي لا يغير شيئًا على المدى القصير وأنه يغير كل شيء على المدى الطويل”. “هذا صحيح بالنسبة لكل تقنية ظهرت من قبل.”

نظرًا لأن الذكاء الاصطناعي أصبح أكثر انتشارًا ، فإن صانعي السياسات يركزون بشكل متزايد على تطوير لوائح وضمانات فعالة للتخفيف من المخاطر المحتملة. يوم الخميس ، التقت نائبة الرئيس الأمريكي كامالا هاريس بالرؤساء التنفيذيين من Microsoft و Alphabet Inc. و OpenAI Inc. لمناقشة طرق تقليل مخاطر الضرر الناجم عن تقنيات الذكاء الاصطناعي. قال شوارتز إن مايكروسوفت تعمل بالفعل على إقامة حواجز حماية للمساعدة في تخفيف الخطر المحتمل من أدوات الذكاء الاصطناعي. تستخدم الشركة حاليًا ChatGPT من OpenAI في منتج بحث Bing الخاص بها ، بينما أصدرت Google مؤخرًا روبوت الدردشة المنافس Bard في مارس.

وفقًا لتقرير صدر مؤخرًا عن المنتدى الاقتصادي العالمي ، من المتوقع أن يكون الذكاء الاصطناعي محركًا رئيسيًا للاضطرابات في أسواق العمل العالمية ، وسوف يلعب دورًا في التغييرات لما يقرب من ربع الوظائف العالمية. على هذا النحو ، من الضروري أن يتخذ صانعو السياسات نهجًا حذرًا في تطوير ونشر الذكاء الاصطناعي ، وتحقيق التوازن بين الفوائد المحتملة والمخاطر المحتملة على المجتمع.