التهديد المتصاعد لجرائم الإنترنت المحسنة بالذكاء الاصطناعي

مايو 2025 يشهد زيادة في تقنيات الذكاء الاصطناعي المتقدمة في ظل تصاعد التهديدات السيبرانية

قامت العمالقة التكنولوجيون بإطلاق جيل جديد من منصات الذكاء الاصطناعي، تُظهر ميزات متقدمة بشكل لا يصدّق مصممة لإثراء تجارب المستخدمين. قامت شركة OpenAI بإطلاق GPT-4o، وقد قامت جوجل بإطلاق Gemini 1.5 Pro، بالإضافة إلى غيرها. ومع ذلك، جنبًا إلى جنب مع هذه التطورات، تزايد بشكل مقلق في استغلال الذكاء الاصطناعي من قبل الجرائم الإلكترونية، مما أدى إلى زيادة التعقيد والتعقيد في العمليات الاحتيالية عبر الإنترنت.

أبرزت ندوة حديثة النمو الأسي في تهديدات الجرائم الإلكترونية المساعدة بالذكاء الاصطناعي. وشدد نائب وزير المعلومات والاتصالات، فام دوك لونج، على أن الاستخدام الخبيث للذكاء الاصطناعي يسهل إنشاء عمليات احتيالية معقدة واستهداف هجمات البرمجيات الخبيثة المتطورة. إن هذا الاستخدام السيء للذكاء الاصطناعي يشكل مخاطر خطيرة على المستخدمين في جميع أنحاء العالم.

الآثار المالية الحادة وانتشار deepfakes القائمة على الذكاء الاصطناعي

أفادت وكالة الأمن السيبراني الوطنية بأن المخاطر السيبرانية المرتبطة بالذكاء الاصطناعي تسببت في أضرار تجاوزت قيمتها الـ 1 مليون تريليون دولار أمريكي على الصعيد العالمي، ولقد تكبدت فيتنام خسائر مالية كبيرة. ينطوي الاستخدام غير القانوني الأكثر شيوعًا على محاكاة الصوت والوجه لأنشطة احتيالية. تقديرات تقترح معدل هائل يصل إلى 3000 هجوم في الثانية وظهور 70 ثغرة جديدة يوميًا بحلول عام 2025.

أشار خبراء في BShield، المتخصصين في أمن التطبيقات، إلى أن إنشاء صور وأصوات مزيفة أصبح الآن أقل تحديًا بسبب تقدم التقنيات الذكاء الاصطناعي. يزيد هذا السهولة في إنشاء هويات مزورة من مخاطر للمستخدمين دون علم، خاصة من خلال عمليات الاحتيال في التوظيف عبر الإنترنت والمكالمات الهاتفية التي تتظاهر بأنها من سلطات شرعية.

مخاوف المستخدمين والاحتياطات لتقليل عمليات الاحتيال التكنولوجية العالية

يقلق الازدياد في تقنية deepfake الأفراد مثل نغوين ثانه ترونغ، أخصائي تقنية المعلومات، الذي لفت إلى أن الجناة يمكنهم إنشاء رسائل بريد إلكتروني تشبه تلك من البنوك الرصينة باستخدام الدردشات التي تعمل بالذكاء الاصطناعي، مما قد يؤدي بحذر إلى سرقة البيانات والاحتيال المالي.

ينصح خبير الأمن فام دين تهانغ المستخدمين بتحديث معرفتهم بالذكاء الاصطناعي وتجنب الروابط المشبوهة. ينبغي على الشركات الاستثمار في أمان البيانات والتدريب المتقدم للموظفين لاكتشاف ومعالجة ثغرات النظام بفعالية.

الحاجة الملحة لإطار قانوني للذكاء الاصطناعي والإرشادات الأخلاقية

أمام التهديدات المتطورة، يشدد المسؤولون مثل تا كونغ سون، رئيس تطوير الذكاء الاصطناعي – مشروع مكافحة الاحتيال، على أهمية مواكبة التغيرات في طرق الاحتيال وتعزيز الحلول “الذكية” بحيث تقاوم استغلالات “الذكاء السيئ”. يُطالب أيضا بضرورة أن تنهي الوكالات الحكومية إطارًا قانونيًا يضمن التطوير الأخلاقي والنشر الأخلاقي للذكاء الاصطناعي، مع التأكيد على ضرورة لوائح أكثر صرامة ومعايير وفقًا لما أعرب عنه السلطات مثل العقيد نغوين آنه توان من المركز الوطني للبيانات.

أسئلة رئيسية وتحديات

إحدى أبرز الأسئلة العاجلة في التعامل مع الجرائم الإلكترونية المعززة بالذكاء الاصطناعي هي، “كيف يمكن للأفراد والمنظمات حماية أنفسهم ضد التهديدات المعززة بالذكاء الاصطناعي المتطورة؟” يتناول هذا الموضوع التحدي الأوسع للحفاظ على توازن حساس بين الاستمتاع بفوائد التقنيات التقدمية والحماية من سوء استخدامها.

سؤال هام آخر هو، “ما هي الأطر القانونية والأخلاقية اللازمة لحكم تطوير الذكاء الاصطناعي ونشره بفاعلية؟” هذه المسألة تبرز الجدل حول التنظيم مقابل الابتكار، حيث قد تكفل اللوائح الكثيرة تعطيل التقدم التكنولوجي، ومع ذلك، قد تؤدي القليل جدًا إلى نشاط مفرط لا يُراقب بشكل جيد قد يؤدي إلى سوء الاستخدام الواسع النطاق وتهديدات الأمان.

واحد من التحديات الرئيسية تكمن في مواكبة التدابير الأمنية مع وتيرة تطور الذكاء الاصطناعي. مع تحسين أدوات الذكاء الاصطناعي، تتقن التقنيات لاستخدامها بشكل سيء. قد تجد المنظمات أنفسها في صراع مستمر لتأمين أصولها الرقمية ضد هذه التهديدات المتطورة.

المزايا والعيوب

تشمل المزايا الخاصة بالذكاء الاصطناعي في مجال الأمن السيبراني القدرة على تحليل كميات هائلة من البيانات بسرعة للكشف عن التهديدات، وتلقائيّة الردود على حوادث الأمان، والتنبؤ بمكان ظهور التهديدات الجديدة. يمكن للذكاء الاصطناعي تعزيز كفاءة وفعالية استراتيجيات الأمن السيبراني، مما قد يوقف الجرائم الإلكترونية قبل حدوثها.

ومع ذلك، تكمن العيب في أن القدرة نفسها للذكاء الاصطناعي يمكن استغلالها من قبل الجناة لتطوير هجمات أكثر تطورًا، مثل تلك التي تشمل deepfakes، التي يمكن استخدامها لتقمص الأشخاص لغرض الاحتيال. تزداد تعقيدات هذه الأساليب تهديدات كبيرة على الخصوصية والأمان، وحتى الثقة العامة في الاتصالات الرقمية.

الروابط المتعلقة

للقراءة المزيد حول الذكاء الاصطناعي والتحديات المرتبطة به، تتضمن المصادر الموثوق بها:

– موقع OpenAI لأبحاثهم المتقدمة وتقنياتهم في الذكاء الاصطناعي: أوبن إيه آي
– صفحة شركة جوجل الرسمية، تسلط الضوء على مبادراتهم في مجال الذكاء الاصطناعي وغيرها من المبادرات التكنولوجية: Google
– صفحة مؤسسة الأمن السيبراني الوطنية، التي قد توفر مزيدًا من البيانات حول مكافحة الجرائم السيبرانية: مؤسسة أمن السيبراني والبنية التحتية الأمنية (CISA)

من المهم أن نلاحظ أن روابط النطاقات أعلاه تُفترض أنها سارية بناءً على الكيانات المذكورة في المقالة. ومع ذلك، قد تكون الصفحات الفعلية قد تغيرت بسبب التحديثات أو الإعادات الهيكلية التي قد حدثت بعد تاريخ الوقت الذي تم الاستناد إليه في المعرفة.

Privacy policy
Contact