مسعى جوجل في مجال الذكاء الاصطناعي لتحسين الأمان السيبراني وكشف عمليات التصيّد

DeepMind التابعة لشركة Google تستكشف الدفاع السيبراني القائم على الذكاء الاصطناعي

لفحص ما إذا كان الذكاء الاصطناعي يمكن أن يساعد في إحباط الهجمات السيبرانية، قامت Google ببدء تجربة استكشافية. باستخدام تكنولوجيا الذكاء الاصطناعي المتطورة التابعة لشركة DeepMind، أبرز الباحث الرئيسي في DeepMind، إيلي بورستين، في مؤتمر RSA في سان فرانسيسكو كيف تساعد التطورات الحالية في مجال الذكاء الاصطناعي الشركات في صد التهديدات السيبرانية الضارة.

يستخدم العديد من الوثائق الخبيثة التي يتم اعتراضها من خلال Gmail، والتي تشكل حوالي 70% من كل المحتوى المحظور، مزيجًا من النصوص والرسومات، بما في ذلك شعارات الشركات الرسمية. تهدف هذه الخطة إلى خداع المستخدمين عبر التنكر كاتصالات شرعية.

قدرة الذكاء الاصطناعي في فك تشفير محاولات الاحتيال الالكتروني

استخدم استكشاف Google البوت الدردشة التابع له، Gemini Pro، لتحديد الوثائق الضارة بمعدل كشف لائق. بينما نجح Gemini Pro في تحديد 91% من تهديدات الاحتيال، إلا أنه كان متأخرًا قليلاً مقارنة ببرنامج الذكاء الاصطناعي المدرب بشكل خاص لاكتشاف الاحتيال، الذي أظهر نجاحًا بنسبة 99% وعمل بكفاءة متزايدة.

ومع ذلك، تتجاوز إمكانيات Gemini Pro مجرد تحديد التهديد. قوته تكمن في شرح سبب تصنيف رسائل الاحتيال الخاصة بدردشات معينة على أنها خبيثة. على سبيل المثال، عند تحليل ملف PDF كاذب يتنكر كرسالة بريد إلكتروني من PayPal، لاحظ الذكاء الاصطناعي التابع لـ Google بذكاء الفروق في معلومات الاتصال واستخدام اللغة العاجلة، مما يعتبر مواصفات لعملية احتيال حيلي.

على الرغم من عرض إمكانيات هذا، تظل Google في المرحلة التجريبية. وتنشأ القلق من الطاقة الحوسبية الضخمة المطلوبة لتشغيل نظام ذكاء اصطناعي مثل Gemini Pro على نطاق واسع كما في Gmail.

الابتكار في تدابير الأمان السيبراني من خلال الذكاء الاصطناعي

مفكرة في الاحتمالات المستقبلية، تبحث Google أيضًا في كيفية استخدام الذكاء الاصطناعي الوراثي لاكتشاف وتصحيح الثغرات في البرمجيات تلقائيًا. ومع ذلك، تواجه النماذج اللغوية الكبيرة التحديات في تحديد هذه الثغرات بسبب البيانات التدريبية “الضارة” والغنية بالمتغيرات، مما يجعل تحديد العيوب في البرنامج صعبًا.

كشفت التجارب الداخلية في Google عن قيود النماذج اللغوية الكبيرة، بنسبة نجاح تصل إلى 15% فقط في إصلاح أخطاء البرمجيات بلغة C++. وفي بعض الحالات، قامت النماذج حتى بإدخال مشاكل جديدة.

على الرغم من ذلك، تبدو دمج الذكاء الاصطناعي في مجال الأمان السيبراني واعدة، كما أظهرت التجربة الداخلية لـ Google التي أظهرت تخفيضًا بنسبة 51% في الوقت المستغرق في صياغة تقارير الرد على حالات الطوارئ بمساعدة مسودات تم إنشاؤها بواسطة الذكاء الاصطناعي.

توضح المبادرات المستمرة التي تقوم بها Google في تطبيق الذكاء الاصطناعي في عمليات الأمان السيبراني كيف يمكن للتقنية المتطورة تجهيز الفرق البشرية، وزيادة الكفاءة، وثورة الإجراءات الوقائية ضد التهديدات السيبرانية.

الأسئلة الرئيسية والأجوبة

1. مدى فعالية الذكاء الاصطناعي في اكتشاف محاولات الاحتيال الالكتروني؟
لقد أثبت الذكاء الاصطناعي أنه فعّال للغاية في اكتشاف محاولات الاحتيال، حيث أظهرت البرامج المتخصصة في الذكاء الاصطناعي نسبة نجاح في الكشف تصل إلى 99%.

2. ما هي التحديات التي تواجه استخدام الذكاء الاصطناعي في مجال الأمان السيبراني، خاصة في اكتشاف ثغرات البرمجيات؟
إحدى التحديات الرئيسية هي وجود بيانات “ضارة” ضمن مجموعات التدريب، مما قد يجعل النماذج اللغوية الكبيرة تكافح في تحديد العيوب في البرنامج بشكل دقيق. في بعض الأحيان، قد تظهر النماذج معدلات نجاح منخفضة وقد تقوم بإدخال أخطاء جديدة عند محاولة إصلاح ثغرات البرمجيات.

3. هل يمكن للذكاء الاصطناعي تحسين الكفاءة في المهام ذات الصلة بالأمان السيبراني؟
نعم، يمكن للذكاء الاصطناعي تحسين الكفاءة بشكل كبير؛ كما أظهرت التجربة الخاصة بـ Google، حيث أدت تقارير الرد على حالات الطوارئ التي تم إنشاؤها بواسطة الذكاء الاصطناعي إلى تقليل الوقت المستغرق بنسبة 51%.

التحديات والجدل الرئيسية

الموارد الحوسبية: تتطلب تشغيل أنظمة الذكاء الاصطناعي الشاملة مثل Gemini Pro كميات هائلة من الطاقة الحوسبية، مما قد يكون عائقًا لتوسيع الحلول.
الدقة والموثوقية: على الرغم من أن الذكاء الاصطناعي يظهر كفاءة عالية في اكتشاف التهديدات، إلا أنه ليس خاليًا من العيوب. تأكيد أن أنظمة الذكاء الاصطناعي دقيقة ولا تنتج نتائج إيجابية زائفة أو تغيب عن التهديدات الفعلية يعد أمرًا حيويًا.
الأخلاقيات ومخاوف الخصوصية: يمكن أن يؤدي استخدام الذكاء الاصطناعي في الأمان السيبراني إلى مخاوف أخلاقية وخصوصية، خاصة فيما يتعلق بمعالجة وتحليل البيانات الحساسة بواسطة أنظمة الذكاء الاصطناعي.

المزايا والعيوب

المزايا:

الكفاءة: يمكن لأنظمة الذكاء الاصطناعي معالجة كميات هائلة من البيانات بشكل أسرع بكثير من البشر، مما يسرع من عملية الكشف عن التهديدات والرد عليها.
الحماية التوقعية: يمكن للذكاء الاصطناعي التنبؤ بأنواع جديدة من البرامج الضارة أو الهجمات باستخدام التعلم الآلي، مما يوفر حماية توقعية بدلاً من تفاعلية.
التحليل الذكي: يمكن للذكاء الاصطناعي توفير أفكار حول التكتيكات والتقنيات المستخدمة من قبل المهاجمين السيبرانيين، مما قد يساعد على تحسين استراتيجيات الأمان الشاملة.

العيوب:

مستهلك للموارد: تتطلب أنظمة الذكاء الاصطناعي موارد حوسبية شديدة، والأمر يمكن أن يكون كلفة واستهلاك للطاقة.
التدريب المعقد: تدريب أنظمة الذكاء الاصطناعي لمهام الأمان السيبراني هو عملية معقدة وتتطلب مجموعات بيانات عالية الجودة وواسعة النطاق، وهي عادة ما تكون صعبة في تجميعها.
مخاطر الاعتماد الزائد: يمكن أن يؤدي الاعتماد الزائد على الذكاء الاصطناعي إلى إهمال الجانب البشري من الأمان السيبراني، وهو أمر حاسم لاتخاذ القرارات وإدارة التهديدات المعقدة أو المحددة سياقيًا.

الروابط ذات الصلة

لمزيد من المعلومات حول التكنولوجيا المرتبطة بشركة Google والتقدمات في مجال الذكاء الاصطناعي، يمكنك زيارة الصفحة الرئيسية لـ Google AI على Google AI والموقع الرسمي لـ DeepMind على DeepMind. بالإضافة إلى ذلك، لمن يهتم بموارد الأمان السيبراني، فمن المفيد استكشاف الصفحة الرئيسية لمؤتمر RSA على RSA Conference. تم التحقق من جميع عناوين URL المقدمة لضمان أنها تشير إلى النطاق الرئيسي الصحيح.

Privacy policy
Contact