ميتا تعلن سياسات جديدة لمواجهة وسائط الإعلام المعدلة رقمياً

في محاولة لمحاربة المحتوى الخاداع الذي يتم ترويجه بواسطة تقنيات الذكاء الاصطناعي، أعلنت ميتا، الشركة الأم لفيسبوك، عن تغييرات جوهرية في سياساتها بخصوص وسائط الإعلام التي تم إنشاؤها أو تعديلها رقمياً. تأتي هذه الخطوة قبل الانتخابات الأمريكية القادمة، التي من المتوقع أن تختبر قدرة عملاق التواصل الاجتماعي على تنظيم المحتوى الضار.

كجزء من هذه التغييرات، ستقوم ميتا بوضع علامات “صُنعت بواسطة الذكاء الاصطناعي” على الفيديوهات والصور والملفات الصوتية التي تم إنشاؤها باستخدام تقنية الذكاء الاصطناعي. سيتم توسيع نطاق هذه السياسة التي تتعلق بالعلامات التوضيحية لتشمل مجموعة أوسع من محتوى الذكاء الاصطناعي. علاوة على ذلك، ستقوم ميتا أيضاً بوضع علامات منفصلة على الوسائط التي تم تعديلها رقمياً وتشكل خطراً عالياً على إيهام الجمهور. وسيُضاف تلك العلامات بغض النظر عما إذا كان المحتوى قد تم إنشاؤه باستخدام تقنية الذكاء الاصطناعي أو أدوات أخرى.

تمثل هذه النهج الجديد تحولاً في استراتيجية ميتا للتعامل مع المحتوى المعدل. بدلاً من إزالة عدد محدود من المشاركات، تنوي الشركة الاحتفاظ بالمحتوى متاحاً للوصول إليه بينما تزود المشاهدين بمعلومات حول عملية إنشاءه. في إعلان سابق، كشفت ميتا عن خطط لاكتشاف الصور التي تم إنشاؤها باستخدام أدوات ذكاء اصطناعي توليفية تابعة لجهات خارجية من خلال تنفيذ علامات غير مرئية داخل الملفات. ومع ذلك، لم يتم ذكر تاريخ بدء محدد في ذلك الوقت.

وفقًا لمتحدث باسم ميتا، ستنطبق السياسة الجديدة للعلامات على المحتوى المشترك على منصات ميتا، بما في ذلك فيسبوك وإنستجرام وثريدز. سيظل تطبيق واتساب ونظارات الواقع الافتراضي Quest، بالإضافة إلى خدمات أخرى، مخضعة لقواعد مختلفة. أكد المتحدث أن تنفيذ السياسة المحدثة سيبدأ فوراً، مع تقديم علامات “عالية الخطورة” البارزة أكثر.

قرار ميتا بمراجعة سياساته يأتي في وقت حرج، حيث من المتوقع أن يشهد الانتخاب الرئاسي الأمريكي القادم استخدام تقنيات الذكاء الاصطناعي المتقدمة التي تنتج محتوى. رفع باحثون في صناعة التكنولوجيا قلقًا بشأن الأثر المحتمل لأدوات الذكاء الاصطناعي توليفية على المنظر السياسي، خصوصا في الدول التي بدأت حملاتها السياسية في التجربة بالمحتوى الذكاء الاصطناعي. تتطلب هذه التطورات التشريعات والإرشادات الواضحة من الشركات مثل ميتا وOpenAI، المزود الرئيسي لتقنية الذكاء الاصطناعي التوليفي.

في حادثة ملحوظة من العام الماضي، انتقدت لجنة مراقبة ميتا قواعد الشركة بشأن وسائط الإعلام التي تم تعديلها، واصفة إياها بأنها “غير متماسكة.” كشف تقييم اللجنة لفيديو على فيسبوك، عرض فيه الرئيس الأمريكي جو بايدن وتم تعديله لإنشاء سرد كاذب، عن قيود سياسات ميتا الحالية. تعالج السياسة الحالية فقط الفيديوهات التي تم تشويهها بشكل مضل أو إنتاجها بواسطة تقنية الذكاء الاصطناعي أو التي تجعل الأفراد يبدون كما لو أنهم يقولون كلمات لم ينطقوا بها. أوصت الجنة بتوسيع السياسة لتشمل المحتوى غير الذكاء الاصطناعي، مشيرة إلى أن مثل هذا المحتوى يمكن أيضا أن يكون مضللًا. وأكدت التوصية أيضًا على ضرورة تغطية سياسات المحتوى الصوتي فقط والفيديوهات التي تصور أفعالًا لم تحدث.

هذه التغييرات السياسية الأخيرة من ميتا تبرز التزام الشركة بمحاربة انتشار وسائط الإعلام الخاداعة والإشاعات. من خلال تنفيذ سياسات جديدة للعلامات وتغيير نهجهم فيما يتعلق بالمحتوى المعدل، تهدف ميتا إلى تزويد المشاهدين بالمعلومات اللازمة مع ضمان إمكانية الوصول إلى المحتوى.

أسئلة متكررة

س: ما هي شركة ميتا؟
ج: ميتا هي الشركة الأم لفيسبوك.

س: ما هي التغييرات السياسية الجديدة التي قدمتها ميتا؟
ج: ستقدم ميتا علامات “صُنعت بواسطة الذكاء الاصطناعي” للمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي وعلامات منفصلة للوسائط التي تم تعديلها رقمياً وتشكل خطراً عالياً على إيهام الجمهور.

س: أي منصات ستتأثر بالسياسة الجديدة لميتا؟
ج: ستنطبق السياسة الجديدة لميتا على المحتوى المنشور على فيسبوك وإنستجرام وثريدز.

س: متى سيتم تنفيذ السياسة المححثة؟
ج: بدأ تنفيذ السياسة المحدثة بالفعل، مع تقديم فوري لعلامات “عالية الخطورة”.

مصادر:
– رويترز

The source of the article is from the blog radardovalemg.com

Privacy policy
Contact