تحذير من عمليات الاحتيال التي تستخدم الذكاء الاصطناعي: خسارة الأب 1000 دولار تسلط الضوء على التهديد المتزايد

تحذير من عمليات الاحتيال التي تستخدم الذكاء الاصطناعي: خسارة الأب 1000 دولار تسلط الضوء على التهديد المتزايد

يشارك أب في ولاية تكساس تحذيرًا للعائلات الأخرى حول عمليات الاحتيال التي تستخدم الذكاء الاصطناعي بعد أن قال إن والده تعرض لعملية احتيال تكبده خسارة قدرها 1000 دولار. يعتبر هذا الحادث تذكيرًا بتزايد تعقيدات عمليات الاحتيال وضرورة زيادة الوعي لحماية الأحباء.

أكد لي هول، الأب المهتم، أهمية البقاء يقظًا وعدم السماح للذعر بالسيطرة على التفكير المنطقي. وقال: “عندما تكون في حالة قلق وذعر، وعندما تكون هناك لمساعدة عائلتك، أعتقد أن المنطق يتم تجاهله… هذا ما يراه الاحتياليون، لذلك علينا الآن رفع مستوى التطور لكي لا تحدث هذه الأمور لأحبائنا”.

وفقًا لهول، تلقى والده مكالمة محتاجة يعتقد أنها من حفيده، كريستيان، والابن الخاص بهول. استخدم المحتال الذكاء الاصطناعي (AI) لتقليد صوت كريستيان والتوسل بالمساعدة والمال. وكان والد هول مقتنعًا بالأداء المقنع وأرسل 1000 دولار للمحتال المزعوم.

عبر هول عن صدمته من قدرة الاحتيال على إيهامهم، لا سيما عند النظر في أن والده ليس لديه وجود على الإنترنت أو حسابات وسائل التواصل الاجتماعي. وقال: “ولكن الأمر المرعب هو أنهم لا يزالون قادرين على الاتصال بابني، وهذا ما يجعل الأمر أكثر رعبًا”.

تم الكشف عن أنهم سقطوا ضحية لعملية احتيال عندما اتصل هول وزوجته بابنهما مباشرة وأكدوا سلامته. تبين أن كريستيان، الطالب الجامعي، كان في دالاس حقًا، على عكس القصة التي قدمها المحتال.

لا يعد هذا الحادث حالة منفصلة. شاركت جينيفر ديستيفانو، أم في ولاية أريزونا، تجربتها مع مخطط تقليد الأصوات باستخدام الذكاء الاصطناعي. تلقت مكالمة محزنة تقلد صوت ابنتها، تتوسل بالمساعدة وتطالب بفدية. ولحسن الحظ، أكدت ديستيفانو سرعان ما أن ابنتها في أمان وتجنبت المزيد من الأذى.

حذرت هيئة التجارة الفدرالية (FTC) من ارتفاع عمليات الاحتيال التي تعتمد على الذكاء الاصطناعي، حيث يقوم المحتالون بتكرار الأصوات باستخدام مقاطع صوتية قصيرة توجد غالبًا في وسائل التواصل الاجتماعي. وتعتبر عمليات التقليد أعلى العمليات المبلغ عنها في عام 2022، مما تسبب في خسائر بلغت 2.6 مليار دولار وفقًا للهيئة.

لحماية عائلتك من عمليات الاحتيال باستخدام الذكاء الاصطناعي، يوصي الخبراء باتخاذ الإجراءات التالية:

  • البقاء هادئًا والاتصال بالسلطات إذا تلقيت مكالمة مشبوهة. يعتمد المحتالون على استغلال الروابط الشخصية وتحفيز الإجراءات المتسرعة.
  • كن حذرًا تجاه الطلبات بالتحويل السلكي أو بطاقات الهدايا أو العملات المشفرة. إنها إشارات حمراء كبيرة تشير إلى احتمالية وجود عملية احتيالية.
  • احتفظ بحسابات وسائل التواصل الاجتماعي كما خاصة لمنع المحتالين من تقليد صوتك باستخدام المحتوى المتاح للجميع.
  • عند استلام مكالمات مشبوهة، قم بإنهاء المكالمة واتصل بأفراد أسرتك مباشرة باستخدام رقم معروف وموثوق به بدلاً من الضغط على زر إعادة الاتصال بالمكالمة الواردة.
  • قم بتحديد كلمة سر فريدة بين أفراد العائلة يمكن استخدامها للتحقق من حالات الطوارئ. ستساعدك هذه الكلمة المرورية في التأكد من إشارات الضيق الحقيقية.

مع استغلال المحتالين للذكاء الاصطناعي وتكنولوجيا تقليد الأصوات للتلاعب بالأفراد عاطفيًا، من الأمر الضروري البقاء مطلعًا وحذرًا. من خلال تنفيذ هذه الإجراءات الوقائية، يمكن للعائلات حماية أنفسهم بشكل أفضل من التهديد المتزايد لعمليات الاحتيال باستخدام الذكاء الاصطناعي.