مايو 2024: ظهور الذكاء الاصطناعي من الجيل القادم يثير المخاطر الأمنية الإلكترونية

كشفت ظهور نسخ متقدمة من الذكاء الاصطناعي من قبل الشركات التكنولوجية العالمية الكبرى مثل OpenAI’s GPT-4o و Gemini 1.5 Pro من Google في مايو 2024 عن قفزة كبيرة في الميزات الذكية التي تهدف إلى تحسين تجارب المستخدمين. ومع ذلك، مع هذه التقدمات يأتي التصاعد في سيناريوهات الاحتيال عبر الإنترنت.

النمو التسارعي لتهديدات الأمان السيبراني

خلال ندوة حديثة، ناقش نائب وزير المعلوماتية والاتصالات الفيتنامي، Phạm Đức Long، الحوادث المتزايدة باستمرار لهجمات القرصنة الالكترونية التي تصبح أكثر تطورًا وتعقيدًا. يزيد هذا النمو، الذي يدفعه الذكاء الاصطناعي، من الخطر الذي يواجهه المستخدمون، مما يمكّن الجناة من صياغة برامج ضارة جديدة وعمليات احتيال معقدة بسهولة.

وأبرز تقرير الوكالة الوطنية للأمن السيبراني التكلفة الكبيرة للمخاطر السيبرانية ذات الصلة بالذكاء الاصطناعي، والتي بلغت أكثر من تريليون دولار أمريكي في خسائر عالمية. عانت فيتنام وحدها من تأثيرات مالية تُقدّر بما يتراوح بين من 8,000 إلى 10,000 مليار فِييتنام دونغ. وحاليًا، يرتفع استخدام الذكاء الاصطناعي في تقمص الأصوات والملامح الوجهية لأغراض احتيالية بوتيرة سريعة.

تتوقع التوقعات بحلول عام 2025، أن يكون هناك حوالي 3,000 هجوم سيبراني كل ثانية، بالإضافة إلى 12 سلالة جديدة من برامج الضارة و 70 ثغرة يوميًا.

توسيع تقنية Deepfake ضمن مجموعة أدوات الجناة

مدير شركة BShield، التي توفر حلول أمان للتطبيقات، Nguyễn Hữu Giáp، يلاحظ أن إنشاء صور وأصوات مزيفة ليس صعبًا مع تقدم تكنولوجيا الذكاء الاصطناعي الحالية. يمكن للمخطئين بسهولة جني البيانات التي يشاركها المستخدمون علنًا على وسائل التواصل الاجتماعي أو من خلال تكتيكات مضللة مثل المقابلات عبر الإنترنت. عرضت محاكيات BShield كيف يمكن للنصاب إدراج وجه موجود من مكالمة فيديو على هوية مزيفة، ودمجها مع جسم يعمل لخداع أنظمة التحقق الشخصي عبر الإنترنت، ومن ثم، يتم التعرف عليه كشخص حقيقي.

من وجهة نظر المستخدم، يعبر الخبير التقني Nguyễn Thành Trung من مدينة هوشي منه عن مخاوفه بشأن السهولة التي يمكن للجهات المتعسفة الاستفادة منها في استغلال الذكاء الاصطناعي مثل chatGPT لإنتاج رسائل احتيالية تحاكي الاتصالات الشرعية من البنوك أو الكيانات الشهيرة، يحتوي أحيانًا على مرفقات برامج ضارة موجهة للمصدق غير المتأهب.

أسئلة وأجوبة مهمة:

كيف يؤثر الزيادة المدفوعة بالذكاء الاصطناعي في تهديدات الأمان السيبراني على الشركات والأفراد؟ مع الذكاء الاصطناعي المتقدم، يمكن للقراصنة السيبرانيين تنفيذ هجمات متطورة يمكن أن تؤدي إلى سرقة البيانات الحساسة والخسارة المالية والضرر بالسمعة. كل من الشركات والأفراد عرضة لهذه المخاطر بشكل متزايد، مما يتطلب إجراءات أمان مشددة وزيادة الوعي.

ما الدور الذي تلعبه تقنية deepfake في تهديدات الأمان؟ تقنية deepfake، التي تخلق صورًا وأصواتًا مزيفة مقنعة، تشكل مخاطر كبيرة حيث يمكن استخدامها لتقمص الأفراد، تلاعب في الإدراك وتيسير الاحتيال. توفر قابلية الوصول والتكلفة جعلتها مصدر قلق متزايد للأمان السيبراني.

ما هي التحديات في مواجهة تهديدات الأمان السيبراني الناجمة عن الذكاء الاصطناعي؟ تكون تهديدات الأمان السيبراني التي تنشأ عن الذكاء الاصطناعي غالبًا متطورة ويمكن أن تتطور بسرعة، مما يجعلها صعبة الكشف عنها والرد عليها. أحد التحديات الأساسية هو الحفاظ على تدابير الأمان خطوة أمام هذه التهديدات المتقدمة. سرعة انتشار إنشاء البرمجيات الضارة واستخدام الذكاء الاصطناعي من قبل الجناة يستوجب رفع مستوى التقنيات والإجراءات المستمرة في الدفاع عن الأمان السيبراني.

التحديات والجدل المثار:

الآثار الأخلاقية: تطوير الذكاء الاصطناعي الذي يمكن أن يتم استغلاله يثير أسئلة أخلاقية حول مسؤولية الخالقين وضرورة وجود لوائح وآليات تحكم لمنع الإساءة الاستخدام.

مخاوف الخصوصية: بينما يصبح الذكاء الاصطناعي متكاملاً أكثر مع البيانات الشخصية، هناك خطورة متزايدة من انتهاكات الخصوصية، مما يؤدي إلى جدل حول جمع البيانات، الموافقة، والتوازن بين فوائد التكنولوجيا وحقوق الخصوصية.

الإطار التنظيمي: يعد إنشاء إطار تنظيمي عالمي شامل لإدارة الاستخدام المزدوج للذكاء الاصطناعي لأغراض شرعية وخبيثة أمرًا معقدًا، نظرًا للمعايير القانونية المتفاوتة عبر البلدان.

المزايا والعيوب:

مزايا الذكاء الاصطناعي للجيل القادم: يمكن أن تحدث تقنية الذكاء الاصطناعي المحسنة ثورة في العديد من الصناعات من خلال زيادة الكفاءة، وتوفير تحليلات بيانات أفضل، وتحسين تخصيص الخدمات الشخصية. كما يمكن أن يساعد في الكشف عن التهديدات السيبرانية والاستجابة إليها بشكل أكثر فعالية.

عيوب الذكاء الاصطناعي للجيل القادم: يعني ازدياد تعقيد تقنيات الذكاء الاصطناعي توفير أدوات متقدمة للمجرمين السيبرانيين، مما يؤدي إلى تهديدات سيبرانية أكثر تعقيدًا وصعوبة في الكشف عنها. علاوة على ذلك، فإن إساءة استخدام الذكاء الاصطناعي لأغراض غير أخلاقية تشكل قلقًا كبيرًا.

OpenAI وGoogle ذات الصلة هما شركات نشطة في تطوير ونشر الذكاء الاصطناعي المتقدم وهو ذو صلة بموضوع تهديدات الأمان السيبراني المرتبطة بتقنيات الذكاء الاصطناعي للجيل القادم. ومع ذلك، تأكد من الرجوع إلى المصادر الحقيقية لتجنب نشر المعلومات الخاطئة ومتابعة آخر التطورات في الصناعة.

Privacy policy
Contact