كشفت التقارير الأخيرة أن روبوتات الدردشة للذكاء الاصطناعي ، ChatGPT ، يمكنها الآن التحكم في روبوتات Boston Dynamics باستخدام أوامر اللغة الطبيعية. يمثل هذا تقدمًا كبيرًا في مجال الروبوتات ، حيث إنه يمكّن العمال العاديين من التحكم في هذه الآلات المتطورة من خلال لغة بديهية ، بدلاً من طلب تدريب متخصص.
طورت شركة البرمجيات Levatas ، ومقرها فلوريدا ، هذه التكنولوجيا وتزعم أنها ستساعد في تحسين الإنتاجية والسلامة في البيئات الصناعية. قد تسمح القدرة على التحكم في الروبوتات من خلال أوامر اللغة الطبيعية للعمال بالحفاظ على أنفسهم والآخرين في مأمن من المواقف الخطرة ، فضلاً عن زيادة الكفاءة في التصنيع والصناعات الأخرى.
ومع ذلك ، في حين أن هذا التقدم في الذكاء الاصطناعي مثير للإعجاب ، فقد أثار الخبراء مخاوف بشأن المخاطر المحتملة. حذر جاري ماركوس ، الأستاذ الفخري في علم النفس والعلوم العصبية بجامعة نيويورك ، من الافتقار إلى الحس السليم الموثوق به في ChatGPT ، مما قد يؤدي إلى قيام الروبوتات بأشياء خطيرة أو عدم الأداء كما هو متوقع.
كما أعرب الدكتور جيفري هينتون ، المعروف باسم “الأب الروحي للذكاء الاصطناعي” ، عن مخاوفه. إنه يعتقد أن الجهات الفاعلة السيئة يمكن أن تستخدم الذكاء الاصطناعي لأغراض خبيثة وأن الأسلحة المستقلة حقًا يمكن أن تصبح حقيقة واقعة. في مقابلة حديثة مع صحيفة نيويورك تايمز ، اعترف هينتون بالندم على عمله في حياته واعترف بالمخاطر المحتملة للذكاء الاصطناعي.
على الرغم من الفوائد العديدة التي جلبها الذكاء الاصطناعي لمختلف الصناعات ، لا يمكن تجاهل مخاطر إساءة استخدامه. مع استمرار تقدم التكنولوجيا ، من الأهمية بمكان أن نأخذ في الاعتبار العواقب المحتملة ونتخذ الاحتياطات اللازمة لمنع النتائج الضارة. سيكون ضمان التطوير الأخلاقي للذكاء الاصطناعي واستخدامه أمرًا بالغ الأهمية لاستمرار نجاحه في تحسين الإنتاجية والكفاءة والسلامة في مختلف القطاعات.
في الختام ، في حين أن تطوير قدرة ChatGPT على التحكم في روبوتات Boston Dynamics باستخدام أوامر اللغة الطبيعية يعد إنجازًا مثيرًا للإعجاب ، يجب مراعاة المخاطر المحتملة بعناية. بينما نواصل دمج الذكاء الاصطناعي في حياتنا اليومية ، يجب أن نسعى جاهدين لضمان استخدامه بشكل أخلاقي ومسؤول لتجنب العواقب السلبية.