أستاذ جامعي يكتشف طريقة بسيطة وفعالة لتحديد الانتحال الناتج عن الذكاء الاصطناعي

أستاذ جامعي يكتشف طريقة بسيطة وفعالة لتحديد الانتحال الناتج عن الذكاء الاصطناعي

أدى ظهور الذكاء الاصطناعي (AI) إلى إحداث ثورة في مختلف الصناعات والمجالات ، بما في ذلك التعليم. ومع ذلك ، فقد أثار أيضًا مخاوف بشأن القضايا الأخلاقية المحتملة ، لا سيما في القطاع الأكاديمي. مع استمرار نماذج لغة الذكاء الاصطناعي مثل ChatGPT في تحسين قدراتها ، يجب على المعلمين أيضًا تكييف وتطوير طرق لمنع الانتحال الناتج عن الذكاء الاصطناعي.

أحد الأساتذة الذين عالجوا هذه القضية هو تيرينس داي ، أستاذ الجغرافيا الطبيعية في كلية أوكاناغان في كولومبيا البريطانية. يدعي Day أنه وجد طريقة مباشرة لتحديد الانتحال الذي تم إنشاؤه بواسطة الذكاء الاصطناعي ، والذي يتضمن التحقق من صحة كل اقتباس مدرج في العمل من خلال مطالبة الطلاب بإرفاق ارتباط تشعبي لكل مرجع.

اكتشف داي هذا النهج بعد تجربة ChatGPT ووجد أن المراجع التي أنشأها الذكاء الاصطناعي في أسئلته المتعلقة بالجغرافيا كانت زائفة. ثم قام بتفصيل طريقة اكتشافه في ورقة بحثية تمت مراجعتها من قبل الزملاء نُشرت في وقت سابق من هذا الشهر في The Physical Geographer.

وأوضح داي في مقابلة مع شبكة فوكس نيوز: “من السهل جدًا تحديد الإشارات المزيفة”. “كل ما عليك فعله حقًا هو فحصها على الإنترنت.”

للقيام بذلك ، اقترح داي أن يطلب الأساتذة من الطلاب توفير ارتباط تشعبي لكل مرجع مدرج في عمل الفصل. وقال: “يتم ذلك عادةً من حيث ما يسمى عمومًا بـ DOI ، معرف الكائن الرقمي ، وهذا ارتباط تشعبي”. “تضغط على ذلك. هل هو موجود؟ هل هو غير موجود؟”

يعتمد نهج الأستاذ على فرضية أن نماذج لغة الذكاء الاصطناعي مثل ChatGPT تولد استجابات باستخدام عملية تنبؤية تعتمد على تدريبهم المحدود في مجال معين. نتيجة لذلك ، قد تكون المراجع والاستشهادات التي تنتجها هذه النماذج غير مألوفة ومزيفة تمامًا.

اكتشف اليوم هذا عن طريق التحقق مرة أخرى من مراجع واستشهادات ChatGPT. أدخل بعض عناوين المجلات التي تم الاستشهاد بها في Google Scholar ، وهو محرك بحث عن الأدب العلمي ، لكنها لم تظهر. وأوضح: “كنت مرتبكًا قليلاً وجربت واحدًا أو اثنين آخرين – وأكثر وأكثر”. “لم أجد واحدة دقيقة وكاملة ووجودة”.

وفقًا لـ Day ، فإن جميع الاقتباسات التي راجعها كانت مزيفة على ما يبدو ، مما دفعه إلى الاعتقاد بأن نهجه كان أكثر موثوقية من برامج الذكاء الاصطناعي المنافسة. وقال: “هناك اهتمام متزايد ببرمجيات الكشف عن السرقات الأدبية ، القادرة على الكشف عن المواد المكتوبة لروبوت الدردشة الآلي”. “المشكلة هي أنها تعطي فقط احتمال أن تكون المادة مسروقة ، ولا يمكنها أن تحدد بشكل قاطع ما إذا كانت قد كتبها شخص أم لا أو ما إذا كانت قد كتبها ChatGPT.”

يعتقد داي أن بساطة طريقته تقلل الغموض حول ما إذا كان الطالب قد قام بالغش. وقال: “ميزة النهج الذي أروج له هنا هي الفكرة هي مجرد التحقق من المراجع”. “إذا كانت المراجع موجودة ، فهذا … يشير إلى أنه من المحتمل أن يكون أصليًا.”

في الختام ، توفر طريقة Day طريقة بسيطة وفعالة لمنع الانتحال الناتج عن الذكاء الاصطناعي. من خلال مطالبة الطلاب بإرفاق ارتباط تشعبي لكل مرجع مدرج في عملهم ، يمكن للمعلمين التحقق بسهولة من صحة الاستشهادات واكتشاف أي مراجع زائفة تنتجها نماذج لغة AI مثل ChatGPT.