تحدي القوة المتزايدة للجرائم الاحتيالية الممكّنة بالذكاء الصناعي وضرورة تعزيز التدابير الأمنية

تأثير كبير جداً حققته التقنية الذكاء الصناعي على مختلف الصناعات، بما في ذلك القطاع المالي. استخدام تقنية الذكاء الاصطناعي ثورة في العديد من العمليات، ابتداءً من تأمين المهام الروتينية حتى تقديم التوصيات الشخصية للعملاء. ومع هذه التقدمات تأتي الأخطار الجديدة، بشكل خاص في مجال الاحتيال المالي.

يستفيد الجناة بشكل متزايد من تقنية الذكاء الاصطناعي لتنفيذ مؤامرات احتيالية بكفاءة وفعالية أكبر. كانت الحوادث التي تشمل احتيال مدعومة بالذكاء الاصطناعي في الماضي غير مألوفة، ولكنها أصبحت الآن أكثر شيوعًا. على سبيل المثال، نجح المحتالون في استخدام deepfake صوتي متقدم بواسطة الذكاء الاصطناعي لإقناع الرئيس التنفيذي بتحويل مبلغ كبير من المال، وقام الجناة حتى باستخدام تقنية deepfake للتنكر كمسؤولين تنفيذيين رفيعي المستوى في الشركة وخداع الموظفين لعمل مدفوعات كبيرة.

وفقًا لاستطلاع أجرته شركة Regular لحلول التحقق من الهوية، فقد تعرض 37 في المئة من الشركات على مستوى العالم لمحاولات احتيالية تتضمن deepfake صوتي، و29 في المئة تعرضت لـdeepfakes بالفيديو. وعلاوة على ذلك، يتم استهداف الأفراد بشكل متزايد بالمكالمات التي تبدو وكأنها واقعية، مثل تلك التي تدّعي أنها من أحد أفراد العائلة في المستشفى بحاجة إلى مال. تشكل هذه التهديدات الممكّنة بالذكاء الصناعي تحديات كبيرة للمؤسسات المالية والأفراد على حد سواء.

تعمل الآن المؤسسات المالية على الابتكار والتكيف باستمرار للفوز على الجناة وتجاوزهم بذكاء. على سبيل المثال، أنشأت BMO، وهي إحدى الشركات المالية الرائدة، وحدة مكافحة الجرائم المالية المخصصة لمكافحة الاحتيال الممكن بالذكاء الصناعي وتطوير استراتيجيات جديدة. ومع ذلك، تبقى تكلفة الاحتيال ضخمة، مع تقديرات تشير إلى تكلفة سنوية ضخمة تبلغ 8.8 مليار دولار في عام 2022.

جانباً مقلقاً في تحدي الاحتيال الممكن بالذكاء الاصطناعي هو ارتفاع الاحتيال الاصطناعي، الذي ينطوي على تزوير هويات لفتح حسابات ائتمانية احتيالية. يستخدم الجناة مزيجًا من التفاصيل الحقيقية والملفقة لإنشاء هذه الهويات الاصطناعية، مما يجعل من الصعب اكتشاف الاحتيال ومنعه. تم الإبلاغ عن حالات حيث نجح الجناة في النصب على البنوك بملايين الدولارات في صناديق المساعدة من COVID-19 من خلال الحسابات الاصطناعية.

أمام هذه التهديدات المتنامية، يصبح تحديد الأمان وتبني التدابير الاحترازية أمراً حاسماً. عند تنفيذ حلول تقنية جديدة، من الضروري إنشاء ضوابط أمان قوية لمنع استغلال الثغرات. تبرز الدروس المستفادة من انتهاكات الأمان السابقة، مثل تلك التي عانى منها Yahoo وEquifax وMarriott، أهمية التحيز للأمان من البداية.

تلجأ المؤسسات المالية بشكل متزايد إلى الذكاء الاصطناعي كأداة لمكافحة الاحتيال الممكّن بالذكاء الصناعي. تقوم العديد من المؤسسات بتطوير نماذج تعلم الآلة لاكتشاف ومنع الاحتيال المالي بفعالية. بالإضافة إلى ذلك، يتم استكشاف تقنيات ابتكارية مثل passkeys وتوزيع المفاتيح الكمومي كحمايات الجيل القادم لاستبدال كلمات المرور التقليدية وتعزيز التدابير الأمنية.

ومع ذلك، يتطلب مكافحة الاحتيال الممكن بالذكاء الاصطناعي جهوداً تعاونية. يتعين إقرار معيار أمان عالمي موحد لضمان حماية متسقة وفعّالة ضد عاصفة الاحتيال القادمة. بدون مثل هذه التدابير، ستستمر تأثيرات الاحتيال في النمو، ولا سيما بالنسبة للشركات ذات الأحجام المتوسطة والصغيرة والأفراد الذين قد لا يكون لديهم وسائل دفاعية متطورة.

الأسئلة الشائعة

س: ما هو الاحتيال الممكن بالذكاء الاصطناعي؟
ج: الاحتيال الممكّن بالذكاء الاصطناعي يشير إلى استخدام تقنية الذكاء الاصطناعي من قبل الجناة لتنفيذ مؤامرات احتيالية بكفاءة وفاعلية أكبر.

س: كيف يستخدم الجناة تقنية deepfake في الاحتيال؟
ج: يستخدم الجناة تقنية deepfake لإنشاء تقليدات صوتية أو فيديو واقعية، مثل التنكر كمسؤولين تنفيذيين رفيعي المستوى في الشركة، لخداع الأفراد للقيام بمعاملات غير مصرح بها أو كشف معلومات حساسة.

س: ما هو الاحتيال الاصطناعي؟
ج: الاحتيال الاصطناعي يتضمن إنشاء هويات مزورة، باستخدام تفاصيل حقيقية وملفقة، لفتح حسابات ائتمانية احتيالية وتنفيذ احتيال مالي.

س: كيف تكافح المؤسسات المالية الاحتيال الممكن بالذكاء الاصطناعي؟
ج: تقوم المؤسسات المالية بالاعتماد على تقنية الذكاء الاصطناعي نفسها لتطوير نماذج تعلم الآلة وحمايات الجيل القادم لاكتشاف ومنع الاحتيال الممكن بالذكاء الاصطناعي. كما تستكشف حلولاً ابتكارية مثل passkeys وتوزيع المفاتيح الكمومي.

المصادر: مصدر المثال 1, مصدر المثال 2

The source of the article is from the blog procarsrl.com.ar

Privacy policy
Contact