في عام 2019 ، واجهت أعمال بطاقات الائتمان الخاصة بشركة Apple انتقادات عندما تلقت امرأة حد ائتماني واحد على عشرين من حجم زوجها. دافع ممثلو شركة Apple عن القرار ، ونسبوه إلى “الخوارزمية”. يسلط هذا الحادث الضوء على الاتجاه المتزايد للخوارزميات المبهمة لاتخاذ قرارات مهمة ، غالبًا مع نتائج إشكالية. من الموافقات الائتمانية إلى التوصيات المخصصة ، تعمل هذه الأدوات الآلية بدون تفسيرات واضحة ، مما يشكل مخاطر على ثقة المستخدم وسلامته.
مقايضة الدقة – التفسير:
تستثمر العديد من المؤسسات في خوارزميات غير قابلة للتفسير ، بافتراض أنها تقدم أداءً فائقًا مقارنة بالنماذج القابلة للتفسير. يشكل هذا الافتراض مفهوم المقايضة بين الدقة والشرح ، حيث يُعتقد أن تعقيد الخوارزمية الأكبر يؤدي إلى دقة أعلى. ومع ذلك ، فإن هذا المنظور ليس دقيقًا دائمًا.
الصندوق الأبيض مقابل الصندوق الأسود:
يميز علماء البيانات بين نماذج الذكاء الاصطناعي ذات الصندوق الأبيض والصندوق الأسود. تتكون نماذج الصندوق الأبيض من قواعد أو معايير بسيطة يمكن للبشر فهمها. في المقابل ، تستخدم نماذج الصندوق الأسود العديد من أشجار القرار أو مليارات من المعلمات ، مما يجعلها غير مفهومة للمراقبين. ولكن هل يؤدي تعقيد نماذج الصندوق الأسود دائمًا إلى دقة أعلى؟
فضح المفاضلة:
كشف تحليل شامل لما يقرب من 100 مجموعة بيانات معيارية أنه في ما يقرب من 70٪ من الحالات ، حقق كل من نماذج الصندوق الأسود والصندوق الأبيض مستويات مماثلة من الدقة. يوضح هذا البحث ، جنبًا إلى جنب مع دراسات أخرى ، أن نماذج الذكاء الاصطناعي القابلة للتفسير يمكن أن تعمل تمامًا مثل نماذج الصندوق الأسود.
اعتبارات التبني:
يجب على المنظمات اتباع عدة خطوات قبل اعتماد نهج الصندوق الأسود:
الافتراضي إلى الصندوق الأبيض: ابدأ بنموذج الصندوق الأبيض واختر فقط نماذج الصندوق الأسود إذا كان أداؤها يفوق بشكل كبير أداء بديل الصندوق الأبيض.
تعرف على بياناتك: قم بتقييم جودة ونوع البيانات المعنية. تفضل البيانات المزعجة غالبًا نماذج الصندوق الأبيض البسيطة ، بينما قد تستفيد التطبيقات المعقدة التي تتضمن بيانات الوسائط المتعددة من نماذج الصندوق الأسود.
تعرف على المستخدمين: الشفافية أمر بالغ الأهمية ، لا سيما في حالات الاستخدام الحساسة. إعطاء الأولوية للشرح عندما يكون الإنصاف والعدالة الإجرائية أمرًا بالغ الأهمية ، حتى لو بدا نهج الصندوق الأسود أكثر دقة.
تعرف على مؤسستك: ضع في اعتبارك مستوى استعداد المنظمة للذكاء الاصطناعي. ابدأ بنماذج الصندوق الأبيض البسيطة ، وانتقل تدريجيًا إلى حلول أكثر تعقيدًا حيث يكتسب الموظفون الألفة والثقة.
تعرف على اللوائح الخاصة بك: في المجالات التي تكون فيها القابلية للتفسير مطلوبة قانونًا ، مثل التمويل أو التوظيف ، تصبح نماذج الصندوق الأبيض هي الخيار الوحيد.
اشرح ما لا يمكن تفسيره: في الحالات التي تكون فيها نماذج الصندوق الأسود ضرورية ، قم بتطوير وكلاء الصندوق الأبيض أو إعطاء الأولوية للشفافية لمعالجة مخاوف الثقة والسلامة.
يتطلب تطبيق الذكاء الاصطناعي توازنًا دقيقًا بين المخاطر والمكافآت. بينما لا يوجد حل عالمي ، تشير الأبحاث إلى أن نماذج الذكاء الاصطناعي البسيطة والقابلة للتفسير غالبًا ما تعمل على قدم المساواة مع بدائل الصندوق الأسود. من خلال إعطاء الأولوية للدقة وإمكانية الشرح ، يمكن للمؤسسات الحفاظ على ثقة المستخدم وتقليل التحيزات ودفع تبني الذكاء الاصطناعي المسؤول.