التهديد الناشئ لتقنية الفيديو المزيف في الاحتيال المالي

تحذير: ارتفاع عمليات الاحتيال المالي المستندة إلى Deepfake

قبل عدة أشهر، حدثت عملية احتيال تقنية رائعة في هونغ كونغ عندما تم خداع شركة بمبلغ 25 مليون دولار. بعد تلقي تعليمات من أفراد يتظاهرون بأنهم تنفيذيون في الشركة عبر مكالمة فيديو، قام أحد الموظفين بنقل هذا المبلغ الهائل بغير وعي. تبين لاحقًا أن تقنية Deepfake قد تم استخدامها لتزوير مظاهر وأصوات رؤساء الشركة، مما سمح بتسهيل الاحتيال.

الحادثة في هونغ كونغ ليست معزولة، ومن المحتمل ألا تكون الأخيرة من نوعها. فتقنية Deepfake، التي تشمل استخدام الذكاء الاصطناعي لإنشاء هويات وهمية واقعية، شهدت زيادة بنسبة 3000٪ في استخدامها لأغراض احتيالية خلال السنة الماضية، مشيرة إلى ظهور تهديد جديد وقوي في ساحة الجريمة المالية.

في عالم يمكن للهويات المسروقة أو المزيفة الوصول إلى حسابات البنوك، مما يؤدي إلى خسائر عالمية تصل إلى مليارات الدولارات، تعد تقنية Deepfake آخر أداة في مجموعة أدوات النصب. تحذر وكالات إنفاذ القانون بشدة حيث تقدم المحتالون من استخدام هذه الأدوات لتقليد الأصوات والصور لأغراض احتيالية ثانوية إلى رتبتها بحيث ينظمون العمليات الاحتيالية المالية ذات المقياس الكبير.

في أستراليا، أدت مقاطع الأخبار المفبركة بواسطة الذكاء الاصطناعي والإعلانات من قبل المشاهير لفرص استثمار غير موجودة إلى خسائر تكبدتها المواطنون الأستراليون بقدر يصل إلى ما لا يقل عن 9 ملايين دولار في العام الماضي وحده. على الرغم من أن أوروبا لم تشهد حالات متكررة من الاحتيال المرتبط بتقنية Deepfake، تم الإبلاغ عن حادثة في أكتوبر 2023 تتضمن فيديوهات مزورة لمقدمي البرامج في بي بي سي يروجون لمخطط استثماري احتيالي مع إيلون ماسك.

أعلت مركز شكاوى جرائم الإنترنت التابع لمكتب التحقيقات الفدرالي في الولايات المتحدة عن زيادة بنسبة 22٪ في الشكاوى عن العام السابق، مع أضرار قد تتجاوز 12.5 مليار دولار. لا يقوم المجرمون الإلكترونيون فقط بإستخدام الوثائق التي تسربت بالفعل ولكنهم أيضًا يعبثون ببياناتهم الحيوية لعمليات التحقق، على الرغم من أن هذه التقنية تمثل بعداً صغيراً من الاحتيالات المرتكبة.

سلط الخبراء من Onfido، في تقريرهم، الضوء على الاتجاه المقلق لعدد قليل من خبراء النصب ذوي المهارات العالية المسؤولين عن الغالبية العظمى من هجمات Deepfake، التي تركز غالباً على عمل تجاري واحد في وقت واحد. بالإضافة إلى ذلك، تشير تواتر الهجمات التي تحدث في أيام الأسبوع إلى أن النشاط الإجرامي الآن متنسق دولياً ويبدو دائمًا نشطًا، مسيرًا بعيدًا عن الاتجاه السابق لعمليات الاحتيال المركزة خلال عطلة نهاية الأسبوع.

أسئلة رئيسية وأجوبةها:

1. ما هي تقنية Deepfake وكيف يتم استخدامها في الاحتيال المالي؟
تقنية Deepfake تشير إلى استخدام الذكاء الاصطناعي وخوارزميات التعلم الآلي التي تعمل على تلاعب الصوت والفيديو لإنشاء تزويرات واقعية تبدو حقيقية. في الاحتيال المالي، يتم استخدامها لانتحال الأشخاص أو الجهات الموثوق بها لخداع الضحايا لتحويل الأموال أو المعلومات الحساسة.

2. ما هي بعض التحديات الكبيرة المرتبطة بمكافحة الاحتيال المالي المرتبط بتقنية Deepfake؟
أحد أكبر التحديات هو التطور السريع للتقنية، مما يجعل من الصعب على نظم كشف الاحتيال مواكبته. علاوة على ذلك، يمكن الوصول بسهولة إلى أدوات توليد Deepfake، مما يتيح لمجموعة أوسع من المجرمين تنفيذ الاحتيالات. يجب أيضا على وكالات إنفاذ القانون التعامل مع الطبيعة الدولية للجريمة، والقضايا القضائية، والتحجب الذي يوفره الإنترنت.

3. هل هناك أي جدلات متعلقة بمجهودات مواجهة تهديدات Deepfake في خدمات الخدمات المالية؟
نعم، جهود المواجهة تثير مخاوف حول الخصوصية وإمكانية إساءة استخدام تقنيات المراقبة والمصادقة التي تم استخدامها للتصدي للأوجه الخفية. كما يوجد جدل حول من ينبغي أن يكون مسؤولا عن تنظيم ومراقبة استخدام تقنية Deepfake، حيث تتراوح الآراء بين التنظيم الذاتي للصناعة والمقاربات التي تقودها الحكومة.

مزايا وعيوب تقنية Deepfake:

المزايا:
– لتقنية Deepfake استخدامات إيجابية محتملة، مثل في صناعة السينما والترفيه، حيث يمكن استخدامها لإنشاء تأثيرات خاصة أو إحياء الممثلين المتوفين.
– يمكن أيضًا استخدامها في سيناريوهات التعليم والتدريب، محاكاة التفاعلات الحية في بيئة مراقبة.

العيوب:
– يمكن استخدام Deepfakes لأغراض خبيثة، مثل نشر المعلومات الخاطئة، وتشويه السمعة، والاحتيال المالي.
– يمكن أن تقوّض الثقة في محتوى الوسائط المتعددة، مما يجعل من الصعب التمييز بين ما هو حقيقي ومزيف.
– قد تؤدي التقنية إلى انتهاكات للخصوصية إذا تم استخدام كيانات الأفراد دون موافقتهم.

روابط ذات صلة:
لفهم أفضل للآثار الأوسع نطاقًا لتقنية Deepfake، يمكنك استكشاف المواقع الإلكترونية التالية:
مكتب التحقيقات الفدرالي
يوروبول
Onfido (ملاحظة: قم بتضمين Onfido فقط إذا كانت الصفحة الرئيسية لشركة Onfido ذات الصلة بسؤال أبحاثك أو موضوعك الخاص.)
الانتربول

تذكر دائمًا التحقق من عناوين URL للتأكد من دقتها وأنها تؤدي إلى المواقع المقصودة.

Privacy policy
Contact