تم التشكيك في التزام Google تجاه الذكاء الاصطناعي المسؤول من قبل 18 عاملاً حاليًّا وسابقًا تحدثوا إلى بلومبرج. يزعمون أن الشركة تضحي بالاعتبارات الأخلاقية لمواكبة المنافسين مثل OpenAI ، التي تم إطلاق برنامج الدردشة الآلي الخاص بها في تشرين الثاني (نوفمبر) 2022. ووصف أحد موظفي Google برنامج الدردشة Bard الخاص بالشركة بأنه “كاذب مرضي” ، بينما ادعى آخر أنه قدم نصائح بشأن الغوص. من المحتمل أن يؤدي إلى إصابة خطيرة أو الوفاة “. الوثائق الداخلية تدعم المطالبات.
وعدت Google بمضاعفة فريقها الذي يدرس أخلاقيات الذكاء الاصطناعي وتخصيص المزيد من الموارد لتقييم الأضرار المحتملة للتكنولوجيا. ومع ذلك ، فإن إطلاق برنامج الدردشة الآلي الخاص بـ OpenAI في نوفمبر 2022 أرسل شركة Google بسرعة لدمج الذكاء الاصطناعي التوليدي في أهم منتجاتها في غضون أشهر. المجموعة التي تعمل على الأخلاقيات التي تعهدت Google بتحصينها أصبحت الآن محبطة ومحبطة ، وفقًا للعاملين الحاليين والسابقين. تم إخبار الموظفين المسؤولين عن السلامة والآثار الأخلاقية للمنتجات الجديدة بعدم عرقلة أو محاولة قتل أي من أدوات الذكاء الاصطناعي التوليدية قيد التطوير.
تسعى Google إلى تنشيط أعمال البحث الخاصة بها باستخدام أحدث التقنيات التي يمكن أن تضع الذكاء الاصطناعي التوليفي في ملايين المنازل والهواتف في جميع أنحاء العالم ، من الناحية المثالية قبل أن تتفوق شركة OpenAI ، المدعومة من Microsoft ، على الشركة. كانت الشركة حذرة من قوة الذكاء الاصطناعي التوليدي والاعتبارات الأخلاقية التي تسير جنبًا إلى جنب مع دمج التكنولوجيا في منتجات البحث وغيرها من المنتجات البارزة ، ولكن الوتيرة السريعة للتطوير يمكن أن يكون لها تأثير مجتمعي عميق.
قالت ميريديث ويتاكر ، رئيسة مؤسسة Signal ومدير سابق لشركة Google ، “لقد احتلت أخلاقيات الذكاء الاصطناعي مقعدًا خلفيًا. إذا لم تكن الأخلاقيات في وضع يسمح لها بأولوية على الربح والنمو ، فلن تنجح في النهاية.” وتنفي Google هذا الادعاء وقالت إن الذكاء الاصطناعي المسؤول يظل أولوية قصوى في الشركة.
تمت إعادة تنظيم فريق الذكاء الاصطناعي المسؤول تحت قيادة ماريان كرواك ، التي تعهدت بمضاعفة حجمها وتعزيز علاقاتها مع بقية الشركة. ومع ذلك ، من الصعب العمل على الذكاء الاصطناعي الأخلاقي في Google. قال أحد الموظفين السابقين إنهم طلبوا العمل على تحقيق العدالة في التعلم الآلي وكانوا يشعرون بالإحباط بشكل روتيني لدرجة أن ذلك يؤثر على مراجعة أدائهم. واحتج المديرون على أن ذلك كان يعيق “عملهم الحقيقي” ، على حد قول الشخص.
يشعر الموظفون بالقلق من أن سرعة التطوير لا تتيح الوقت الكافي لدراسة الأضرار المحتملة. قال اثنان من الموظفين إن مراجعات أخلاقيات الذكاء الاصطناعي للمنتجات والميزات تكون تطوعية بالكامل تقريبًا في الشركة ، باستثناء الأوراق البحثية وعملية المراجعة التي تجريها Google Cloud بشأن صفقات العملاء والمنتجات من أجل الإصدار.
قال موظف سابق آخر إنه قبل الرمز باللون الأحمر ، كان من الصعب على مهندسي Google وضع أيديهم على نماذج الذكاء الاصطناعي الأكثر تقدمًا للشركة. غالبًا ما يبدأ المهندسون في العصف الذهني من خلال اللعب مع نماذج الذكاء الاصطناعي التوليدية الخاصة بشركات أخرى لاستكشاف إمكانيات التكنولوجيا قبل اكتشاف طريقة لتحقيق ذلك داخل البيروقراطية ، على حد قول الموظف السابق.
سامي بنجيو ، عالم الكمبيوتر الذي أشرف على فريق الذكاء الاصطناعي الأخلاقي في Google ، والعديد من الباحثين الآخرين سوف يتركون الشركة للمنافسين في السنوات الفاصلة. تميل إدارة الشركة إلى التحدث عن سيناريوهات مستقبلية افتراضية حول تقنية شاملة لا يمكن للبشر السيطرة عليها ، بدلاً من السيناريوهات اليومية التي لديها بالفعل إمكانية أن تكون ضارة.