تحدّيات ومخاطر الحوار الصناعي بالذكاء الاصطناعي

تطرأ العديد من القضايا والتحديات عندما يتعلق الأمر بالحوارات الصناعية التي تعتمد على الذكاء الاصطناعي. إذ يُعتبر الحوار الصناعي بالذكاء الاصطناعي واحدًا من الوسائل الشائعة للتواصل وإنتاج المحتوى. ومع ذلك، لا تخلو هذه الحوارات من العيوب والتحيزات. فهي قد عرفت بتصنيف الأفراد، نشر المعلومات الزائفة، وحتى إنتاج المحتوى الجارح. على الرغم من تداول هذه القضايا على نطاق واسع، فإن هناك نقص في الفهم الشامل بشأن مدى المشكلة. ألقى تقرير حديث الضوء على الطرق المتنوعة التي يمكن أن تخطئ فيها الحوارات الصناعية بالذكاء الاصطناعي، مما يوفر رؤى قيمة حول حدودها والمخاطر المصاحبة لها.

يركز التقرير على نتائج تحدّي فريق Generative Red Team Challenge، الذي أُقيم ضمن مؤتمر Def Con لقراصنة الإنترنت. كانت الهدف من التحدّي هو اختبار ثمانية حوارات صناعية بالذكاء الاصطناعي الرائدة عن طريق تحفيز القراصنة والجمهور العريض لاستفزازها من خلال توليدها لردود فعل مشكلة. شملت فئات الاختبارات نشر المعلومات السياسية الزائفة، التحيزات السكانية، اختراقات الأمان السيبراني، وادعاءات إدراك الذات بالذكاء الاصطناعي.

إحدى النتائج المهمة التي خرجت من التحدّي هي أن الحوارات الصناعية بالذكاء الاصطناعي تعتبر تحديًا لاختراقها لقواعدها أو توجيهاتها الخاصة. ومع ذلك، من السهل نسبيًا توليدها لمعلومات غير دقيقة. حقق المشاركون نسبة نجاح عالية في إجبار الحوارات الصناعية على توليد رياضيات معيبة (بنسبة 76 في المائة) ومعلومات جغرافية مضللة (بنسبة 61 في المائة). وبشكل مدهش، حتى في مجال القضايا القانونية، كانت الحوارات الصناعية عرضة لتقديم معلومات مضللة، بنسبة نجاح تبلغ 45 في المائة.

كما كشف التقرير أيضًا أن الحوارات الصناعية بالذكاء الاصطناعي تعاني في الحفاظ على المعلومات الحساسة. في المحاكاة الخاصة حيث حاول المشاركون استخراج أرقام بطاقات الائتمان المخفية أو الحصول على وصول إلى شبكة المسؤولين، كانت أكثر من نصف الحلول المُقدّمة ناجحة. ومع ذلك، واجه المشاركون صعوبات أكبر في إقناع الحوارات الصناعية بمبررات انتهاكات حقوق الإنسان أو تأكيد تدني مجموعات معينة.

بشكل مثير، اكتشف المشاركون أن أكثر طريقة فعالية لضلالة الحوار الصناعي لا تكمن في تقنيات القرصنة التقليدية بل في بدء العملية بفرضية زائفة. الحوارات الصناعية غالبًا تعاني في تمييز الحقيقة عن الخيال، مقبلة بسهولة على قبول الادعاءات الكاذبة وبناء عليها بمزيد من عدم الدقة. وهذا يبرز أهمية التعامل مع التضخيم غير المقصود لتحيزات المستخدمين والتفاهمات الخاطئة عند التركيز على الآثار المحتملة لأنظمة الذكاء الاصطناعي.

يسلط التقرير أيضًا الضوء على الاهتمام المتزايد بممارسات فرق الاختبار الحمراء لتقييم المخاطر المتصلة بأنظمة الذكاء الاصطناعي. تتضمن فرق الاختبار الحمراء استئناف خبراء خارجيين لاختبار ثغرات النظام قبل إطلاقه. بينما تعتبر فرق الاختبار الحمراء الخاصة شائعة في مجال الأمان السيبراني، أظهرت فعاليات Def Con قيمة جذب الجمهور العريض لكشف الثغرات وتوثيق وجهات نظر متنوعة.

إذ تسلم الشركات العاملة في مجال الذكاء الاصطناعي والجهات الرقابية أهمية فرق الاختبار الحمراء، فإنه من الضروري أن يشمل نطاق المساهمين أوسع لضمان تقييم شامل لمخاطر أنظمة الذكاء الاصطناعي. يمكن أن تسهم الشفافية والمشاركة العامة في فهم أكثر دقة للآثار المحتملة وتوجيه تطوير أطر تحكم قوية للذكاء الاصطناعي.

Privacy policy
Contact