جهود الشركات التكنولوجية الكبرى لمكافحة تدخلات الانتخابات الناجمة عن الذكاء الاصطناعي

عدد من الشركات التكنولوجية الكبرى انضمت للعمل بتعاون لمواجهة القلق المتزايد بشأن تداول الفيديوهات العميقة المُولَّدة بواسطة الذكاء الاصطناعي (AI) والتي يتم استخدامها للتدخل في الانتخابات الديمقراطية. قام مُديرون من شركات مثل Adobe، Amazon، Google، IBM، Meta، Microsoft، OpenAI، TikTok، وغيرها بتوقيع اتفاق اختياري لتبني الاحتياطات اللازمة لمنع سوء استخدام أدوات الذكاء الاصطناعي خلال الانتخابات.

تهدف الاتفاقية، التي أعلنت خلال مؤتمر ميونيخ الأمني، إلى إنشاء إطار للاستجابة للفيديوهات العميقة المُولَّدة بواسطة الذكاء الاصطناعي والتي تقوم بخداع الناخبين عن عمد. وتركز على اكتشاف وتسمية المحتوى العميق الخادع بدلاً من حظره أو إزالته من المنصات. تُلتزم الشركات بمشاركة أفضل الممارسات والاستجابة بسرعة عندما يبدأ نشر هذا المحتوى.

بينما يُعتبر الاتفاق رمزيًا بشكل كبير، إلا أنه يعالج الحاجة لمكافحة الصور والأصوات والفيديوهات العميقة المُولَّدة بواسطة الذكاء الاصطناعي بطريقة أكثر واقعية، والتي يمكن أن تُعدِل مظهر أو صوت أو أفعال المرشحين السياسيين وتزوِّد الناخبين بمعلومات زائفة. جذبت التعهدات العامة الغامضة ونقص المتطلبات الرسمية مجموعة متنوعة من الشركات للانضمام إلى الاتفاق.

عبّر بعض المدافعين عن الحقوق عن خيبة أمل في لغة الاتفاقية، ملاحظين أنها لا توفر ضمانات قوية. ومع ذلك، يُسلط نيك كليغ، الرئيس للشؤون العالمية في Meta، الضوء على أن لدى كل شركة سياسات محتوى خاصة بها وأن الاتفاق لا يهدف إلى فرض قيود على جميع المشاركين. تواصل الشركات العمل على حماية أدواتها التكنولوجية الذكية وتثقيف المستخدمين حول المحتوى المُولَّد بواسطة الذكاء الاصطناعي.

تأتي هذه الاتفاقية في وقت حرج حيث من المقرر أن يُجرى أكثر من 50 دولة انتخابات وطنية في عام 2024. وقد شُهِدت بالفعل حالات لتدخلات الانتخابات المُولَّدة بواسطة الذكاء الاصطناعي، مثل المكالمات الهاتفية الآلية من الذكاء الاصطناعي التي تحاكي صوت الرئيس الأمريكي جو بايدن لإقناع الناس بعدم التصويت. تهدف الاتفاقية إلى معالجة هذه التحديات وتعزيز الشفافية من أجل حماية العمليات الديمقراطية على مستوى العالم.

The source of the article is from the blog klikeri.rs

Privacy policy
Contact