المؤسسات تستخدم الذكاء الاصطناعي لتلاعب الرأي العام، تقارير أوبن إيه

أوبن إيه أي، الشركة الأم التي قامت بإنشاء برنامج الذكاء الاصطناعي الحواري المعروف باسم ChatGPT، قد حددت العديد من المنظمات المقرة في روسيا والصين وغيرها من المناطق التي يُزعم أنها تستخدم الذكاء الاصطناعي لغايات التأثير على الرأي العام.

تلك المجموعات، التي تفضل الابقاء على هوياتها سرية، قامت بتوظيف نصوص تم إنشاؤها بواسطة الذكاء الاصطناعي وإنشاء حسابات على وسائل التواصل الاجتماعي، بالإضافة إلى استخدام الذكاء الاصطناعي لأغراض البرمجة. خلال عملياتها، ركزت هذه المنظمات على القضايا الجيوسياسية الحساسة، مثل الغزو الروسي لأوكرانيا، والصراعات في غزة، والسياسة الأمريكية.

من بين تلك المنظمات، كانت هناك منظمة مقرها الصين وقد كانت نشطة بشكل خاص، حيث وضعت محتوى ينتقد الإصدار المثير للجدل للمياه المعالجة من محطة الطاقة النووية فوكوشيما دايتشي في اليابان. كما امتدت العمليات إلى منشورات باللغة اليابانية على الإنترنت. لكن التقارير تشير إلى أن هذه الرسائل التي أنشأها الذكاء الاصطناعي لم تجذب مشاهدة كبيرة على منصات التواصل الاجتماعي.

وفي إضافة إلى ذلك، كشفت أوبن إيه عن حالات تم فيها رفض محاولات إنتاج صور ترويجية عبر أدوات الذكاء الاصطناعي، مما يسلط الضوء على الحواجز الأخلاقية الموجودة لمنع السوء استخدام. أطلقت أوبن إيه تقريراً يوضح هذه التهديدات في نفس اليوم الذي تم فيه الإعلان عن الاكتشافات، مؤكدة على أهمية مراقبة وتنظيم استخدام الذكاء الاصطناعي لمنع مثل هذه الممارسات التلاعبية.

أهمية وصلة الذكاء الاصطناعي في التلاعب بالرأي العام:

استخدام الذكاء الاصطناعي في التلاعب بالرأي العام هو قلق مهم حيث يمكن أن يؤثر في الانتخابات السياسية وتحويل الرأي العام بشأن القضايا الرئيسية، وحتى حفز الصراع بين مجموعات مختلفة. يمكن لأدوات الذكاء الاصطناعي، مثل تلك التي تم تطويرها لإنشاء فيديوهات وصور وهمية وكتابة نصوص مقنعة، نشر الأخبار المضللة بشكل واسع النطاق وبسرعة تفوق بكثير قدرات الإنسان.

الأسئلة والأجوبة الرئيسية:
ما هي الوسائل التي تستخدمها المنظمات لتلاعب الرأي العام باستخدام الذكاء الاصطناعي؟
تستخدم المنظمات الذكاء الاصطناعي لإنتاج نصوص مقنعة، وابتكار صور أو فيديوهات واقعية (الفيديوهات المزورة بعمق)، إنشاء ملفات تعريف زائفة على وسائل التواصل الاجتماعي، وتأتيم نشر المعلومات الكاذبة تلقائيًا.

كيف تمنع أوبن إيه أدواتها من استخدامها للدعاية؟
تطبق أوبن إيه حواجز أخلاقية وآليات رقابة يمكن أن تكتشف وتمنع البرنامج من إنشاء محتوى مقصود للدعاية أو نشر الأخبار المضللة.

ما هي التحديات المرتبطة بتنظيم استخدام الذكاء الاصطناعي للتلاعب؟
إن انتشار أدوات وتقنيات الذكاء الاصطناعي عبر الحدود الدولية يجعل من الصعب تنفيذ اللوائح. بالإضافة إلى ذلك، قد تتجاوز القدرات المتطورة للذكاء الاصطناعي إنشاء أطر حوكمة فعالة.

تحديات رئيسية وجدليات:

تتمثل التحديات الرئيسية في التعامل مع استخدام الذكاء الاصطناعي لتلاعب الرأي العام في تحديد أنشطة الإساءة وتتبعها إلى أطراف معينة، نظرًا لأن كثيرًا منهم يخفون هويتهم أو يتعاملون من خارج البلاد. بالإضافة إلى ذلك، هناك جدل مستمر حول التوازن بين حرية التعبير وضرورة كبح الأخبار الكاذبة، بالإضافة إلى دور الشركات التكنولوجية مقابل سلطة الدولة في تنظيم المحتوى.

مزايا الذكاء الاصطناعي:
– يمكن للذكاء الاصطناعي تمكين معالجة البيانات وتحليلها بشكل فعال لفهم اتجاهات الرأي العام.
– يسهل نشر المعلومات بسرعة للأخبار الشرعية أو الإنذارات الطارئة.

عيوب الذكاء الاصطناعي:
– يمكن استخدام الذكاء الاصطناعي لتكبير السرد الزائف وإنشاء حملات معقدة للإشاعات.
– يثير قلقًا بشأن تآكل الثقة في الوسائط والمؤسسات الديمقراطية.

الجهود التنظيمية والاعتبارات الأخلاقية:
أثار التقدم في مجال الذكاء الاصطناعي مناقشات حول الاستخدام الأخلاقي والتدابير التنظيمية لمنع استخدامه بشكل غير قانوني في الساحة السياسية. الآن تعمل المنظمات والحكومات في جميع أنحاء العالم بوعي أكبر وتعمل بشكل متزايد على وضع سياسات للتصدي للتحديات الأخلاقية التي يثيرها الذكاء الاصطناعي.

إذا كنت ترغب في قراءة المزيد عن تأثير الذكاء الاصطناعي وتأثيره على المجتمع بشكل عام، فيمكنك استكشاف الروابط التالية:
أوبن إيه
لجنة التعاون الرقمي للأمم المتحدة
منظمة الصحة العالمية (لقضايا الذكاء الاصطناعي المتعلقة بالصحة)

Privacy policy
Contact