تعاون الحكومة مع شركات التكنولوجيا العملاقة لمكافحة تضليل الذكاء الاصطناعي

تمت الشراكة بين الحكومة الهندية والشركات التقنية الكبيرة لمعالجة القلق المتزايد من تضليل الذكاء الاصطناعي في الفضاء الرقمي. أكد وزير تكنولوجيا المعلومات الاتحادي، فايشناف، إجراء اجتماعات بين المسؤولين الحكوميين وممثلي شركات غوغل وميتا (المعروفة سابقًا بـ فيسبوك) وشركات بارزة أخرى، ردًا على استفسارات من Mint.

من خلال الإدراك لضرورة اتخاذ تدابير وقائية، قامت كل من غوغل وميتا بنشر إرشادات حول التعامل مع المحتوى والإعلانات المعدلة بواسطة الذكاء الاصطناعي على منصات مثل ChatGPT، فيسبوك، بحث غوغل، انستغرام، واتساب ويوتيوب. تبرز هذه الإرشادات أهمية وضع علامات على المحتوى المولد بواسطة الذكاء الاصطناعي وقيود استخدام الذكاء الاصطناعي في إنتاج نتائج البحث المتعلقة بالشخصيات السياسية والأحزاب والآراء فيما يتعلق بالانتخابات العامة المقبلة في عام 2024.

أخذت أدوبي، صاحبة برنامج الفوتوشوب، نهجًا حذرًا فيما يتعلق بأداة التوليد الخاصة بها المسماة Firefly. أبرز آندي بارسونز، المدير الكبير لمبادرة صحة المحتوى في أدوبي، التزام الشركة بمنع التلاعب أو إنشاء الصور للحملات السياسية.

عُقدت مناقشات أيضًا حول مسؤولية الوسّطاء، باستثناء أدوبي، ضمن قواعد التكنولوجيا المعلوماتية (الأمناء ونموذج الأخلاق الرقمية) لعام 2021. وفقًا للمسؤولين، قد تواجه هذه الوسطاء ملاحقة قضائية إذا فشلوا في كبح انتشار تضليل الذكاء الاصطناعي. ينبع هذا القلق من انتشار واسع للذكاء الاصطناعي في المحتوى على الإنترنت، مما يدفع شركات التكنولوجيا لاعتماد تقنيات مثل وضع علامات مائية وتسمية البيانات لتحديد وإدارة المحتوى المولد بواسطة الذكاء الاصطناعي.

تعكس قدرة الحكومة الهندية على تأييد الرقابة على الكلمات الرئيسية بشكل محدد فهمًا متزايدًا لتأثير الذكاء الاصطناعي على الحوار العام. تدرك الحكومات في جميع أنحاء العالم أنه لا يوجد حلا واحدًا لمكافحة التضليل، خاصة فيما يتعلق بتأثير الذكاء الاصطناعي. يمكن أن توجه هذه الوعي إتخاذ القرارات الحكومية للبقاء يقظة ضد تضليل الذكاء الاصطناعي في المجتمعات الديمقراطية مثل الهند.

في شهر فبراير، شهدت مؤتمر أمن ميونيخ التوقيع على ‘اتفاق التكنولوجيا لمكافحة الاستخدام الضار للذكاء الاصطناعي في انتخابات 2024’. شمل هذا الاتفاق 20 شركة، بما في ذلك أدوبي، غوغل، ميتا، مايكروسوفت، أوبناي، وإكس (المعروفة سابقًا بتويتر). اقترح اتفاق التكنولوجيا تطبيق تقنيات لتقليل المخاطر المتعلقة بالذكاء الاصطناعي، وتقييم النماذج الاصطناعية وتعزيز المرونة عبر الصناعات.

تم تحديد استراتيجيات محددة لمعالجة قضايا متعلقة بالانتخابات في إفصاحات لاحقة من غوغل وميتا. عاهدت غوغل على الكشف عن استخدام الذكاء الاصطناعي في الإعلانات السياسية، ووضع علامات على المحتوى المولد بواسطة الذكاء الاصطناعي على يوتيوب، وتنفيذ قيود على استعلامات البحث المتعلقة بالانتخابات على جيميني، منصتها للذكاء الاصطناعي المولد. بينما أعلنت ميتا تشغيل 12 فريقًا للتحقق المستقل من المحتوى المولد بواسطة الذكاء الاصطناعي. وتم اعتبار المحتوى السياسي المعدل محدودًا على منصات ميتا لتقليل نطاق وصوله.

على الرغم من الطلبات للحصول على مزيد من المعلومات، لم ترد غوغل أو ميتا على استفسارات Mint بشأن اجتماعاتهم مع المسؤولين الحكوميين والوزراء.

أشار الخبراء القانونيون والسياسيون إلى أن البنود الحالية في قواعد تكنولوجيا المعلومات لعام 2021 والقانون الجنائي الهندي يمكن أن تجعل كل من شركات التكنولوجيا الكبيرة والمستخدمين مسؤولين عن تعزيز تضليل الذكاء الاصطناعي. يمكن أن يؤدي عدم مكافحة هذا المحتوى بنشاط على منصاتهم إلى تحمل المسؤولية وفقًا للبند 7 من قواعد تكنولوجيا المعلومات لعام 2021. تمثل عدم وجود تعريف واضح للمنصات والوسطاء تحدّيًا لمواجهة التهديدات المتعلقة بالذكاء الاصطناعي وتحديد المسؤولية.

الأسئلة الشائعة

The source of the article is from the blog mendozaextremo.com.ar

Privacy policy
Contact