تقدم تشريع جديد في كاليفورنيا يهدف إلى فرض على شركات التكنولوجيا وضع علامة على المحتوى الذي أنشأه الذكاء الاصطناعي، بدءًا من النكات العفوية حتى المحتوى المزيف الخادع. اكتسبت هذه الفاتورة، المعروفة بالرقم AB 3211، قوة إلى جانب مقترح تشريعي آخر يدعى SB 1047، الذي يتطلب من مطوري الذكاء الاصطناعي إجراء اختبارات أمان على نماذج معينة.
في خطوة نحو الشفافية والأصالة، تدعم شركة OpenAI، المقرها في سان فرانسيسكو، الحاجة إلى وضع علامات واضحة على المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي، خاصة خلال أعوام الانتخابات، وفقًا لرسالة أُرسلت إلى عضو مجلس الجمعية في كاليفورنيا بوفي ويكس، مؤلف الفاتورة.
مع تطور الانتخابات في البلدان التي تمثل ثلث سكان العالم هذا العام، تثير مخاوف بشأن تأثير المحتوى الذي أنشأه الذكاء الاصطناعي، والذي ظهر بالفعل في انتخابات مثل تلك التي جرت في إندونيسيا. أبرز جايسون كون، مدير استراتيجية OpenAI، أهمية التكنولوجيا الجديدة والمعايير في مساعدة المستخدمين على التمييز بين المحتوى الذي أنشئه بشر والذي أنشأه الذكاء الاصطناعي.
تمرير الفاتورة AB 3211 من خلال مجلس الولاية بتصويت موحد بنسبة 62-0 يمثل خطوة مهمة إلى الأمام. وموافقة اللجنة المالية على المشروع تمهد الطريق أمام المرحلة القادمة، وهي التصويت في مجلس الشيوخ. إذا تمت الموافقة على المشروع بحلول نهاية دور الانعقاد التشريعي في 31 أغسطس، سيتم إرسال الفاتورة إلى حاكم الولاية جافن نيوسوم للتوقيع عليها أو النقض بحلول 30 سبتمبر.
شراكة OpenAI الأخيرة مع عملاق الإعلام كندي ناست ستمكن منصات مثل ChatGPT وSearchGPT من عرض محتوى من النشرات الرصينة مثل “فوغ”، “النيويوركر”، وGQ. تعتبر هذه التعاونية آخر الاتفاقيات التي أبرمتها OpenAI مع شركات الإعلام الكبرى، مما يُظهر المزيد من التأثير المتنامي للذكاء الاصطناعي في نشر المحتوى.