عملية احتيال مدعومة بالذكاء الاصطناعي
عملية احتيال مدعومة بالذكاء الاصطناعي

احتيال بالذكاء الاصطناعي يستهدف ملياردير هندي في دبي

استنساخ بالذكاء الاصطناعي لصوته لخداع أحد كبار المسؤولين التنفيذيين لديه لتحويل مبلغ مالي كبير.
تاريخ النشر

كشف ملياردير هندي عن تجربة شخصية صادمة حيث كادت عملية احتيال مدعومة بالذكاء الاصطناعي أن تسرق أموال شركته في دبي.

وتضمنت عملية الاحتيال استنساخًا للذكاء الاصطناعي لصوته خدع أحد كبار المسؤولين التنفيذيين لديه حتى وافق على تحويل مالي كبير.

وتحدث الملياردير "سونيل بهارتي ميتال"، مؤسس ورئيس مجلس إدارة شركة "بهارتي إنتربرايزز"، وهي شركة متعددة الجنسيات، عن هذه الحادثة خلال قمة NDTV العالمية يوم الاثنين.

وأوضح ميتال كيف تمكن المحتال من تقليد صوته بشكل مقنع للغاية حتى أنه أصيب بالذهول بعد سماع التسجيل. وقال ميتال: "تلقى أحد كبار المسؤولين الماليين في دبي، الذي يتولى إدارة مقرنا الرئيسي في أفريقيا، مكالمة بصوتي، وبنبرة صوته، يطلب منه إجراء تحويل مالي كبير. وكان عاقلاً بما يكفي ليدرك أنني لن أقدم مثل هذا الطلب عبر الهاتف".

وأبلغ المسؤول التنفيذي، الذي لم يُكشف عن اسمه، بسرعة عن المكالمة المشبوهة، مما منعه من تكبد خسارة مالية كبيرة. وأضاف ميتال: "عندما سمعت التسجيل، شعرت بالذهول من مدى دقة نطقه. لقد بدا الأمر تمامًا كما أتحدث".

وتأتي هذه الحادثة وسط مخاوف متزايدة على مستوى العالم وفي الإمارات العربية المتحدة بشأن إساءة استخدام الذكاء الاصطناعي، وخاصة تقنية التزييف العميق.

وحذر مجلس الأمن السيبراني في الإمارات العربية المتحدة مؤخراً من مخاطر المحتوى المزيف، مشدداً على مخاطر الاحتيال وانتهاكات الخصوصية والمعلومات المضللة. يمكن للمحتوى المزيف - الوسائط التي يتم إنشاؤها بواسطة الذكاء الاصطناعي والمصممة لتقليد الأشخاص الحقيقيين - إنشاء مقاطع فيديو أو صور أو صوت مقنعة للغاية ولكنها مفبركة بالكامل، مما يشكل تهديدات خطيرة للأفراد والمؤسسات.

كما أطلق مجلس الأمن السيبراني في الإمارات العربية المتحدة حملة توعية، محذراً من أن مشاركة المحتوى المزيف العميق قد يؤدي إلى الاحتيال أو العواقب القانونية، وحث الجمهور على التحقق من صحة المحتوى الرقمي قبل توزيعه.

وكشفت دراسة حديثة أجرتها شركة "كاسبرسكي" لرقمنة الأعمال أنه في حين يعتقد 75% من موظفي دولة الإمارات العربية المتحدة أنهم قادرون على التعرف على مقاطع الفيديو المزيفة، إلا أن 37% فقط نجحوا في التمييز بين الصور الحقيقية والصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي أثناء الاختبار. وقال خبراء الأمن السيبراني إن المؤسسات تظل معرضة بشدة لعمليات الاحتيال باستخدام مقاطع الفيديو المزيفة، مثل تلك التي تتضمن مقاطع فيديو أو تسجيلات صوتية مزيفة لرؤساء تنفيذيين يصرحون بتحويلات مصرفية.

وأكد "دميتري أنيكين"، كبير علماء البيانات في كاسبيرسكي، على الحاجة إلى اليقظة الدائمة. وقال: "يبالغ العديد من الموظفين في تقدير قدرتهم على التعرف على مقاطع الفيديو المزيفة، وهو ما يشكل خطرًا أمنيًا كبيرًا. ويستخدم مجرمو الإنترنت هذه التكنولوجيا بشكل متزايد لانتحال هوية المديرين التنفيذيين، مما يتيح لهم ممارسة الاحتيال والابتزاز".

Khaleej Times - Arabic Edition
www.khaleejtimes.com