Uma nova legislação introduzida na Califórnia tem como objetivo obrigar empresas de tecnologia a rotular o conteúdo criado por inteligência artificial, desde memes inofensivos até conteúdo falso enganoso. O projeto de lei, conhecido como AB 3211, ganhou destaque ao lado de outra proposta legislativa, SB 1047, que exige que desenvolvedores de IA conduzam testes de segurança em certos modelos.
Num movimento em direção à transparência e autenticidade, a OpenAI, uma empresa sediada em São Francisco, apoia a necessidade de rotulagem clara do conteúdo gerado por IA, especialmente durante anos eleitorais, de acordo com uma carta enviada à deputada da Califórnia Buffy Wicks, autora do projeto de lei.
À medida que as eleições se desenrolam em países que representam um terço da população global este ano, surgem preocupações sobre o impacto do conteúdo gerado por IA, que já fez aparições em eleições como as da Indonésia. Jason Kwon, diretor de estratégia da OpenAI, destacou a importância de novas tecnologias e padrões para ajudar os usuários a distinguir entre conteúdo criado por humanos e conteúdo gerado por IA.
A aprovação do AB 3211 pela Assembleia Estadual com um voto unânime de 62-0 marca um passo significativo à frente. A aprovação do projeto de lei pelo comitê de apropriações prepara o terreno para a votação no Senado. Se finalizado até o final da sessão legislativa em 31 de agosto, o projeto de lei será enviado ao governador Gavin Newsom para assinatura ou veto até 30 de setembro.
A recente parceria da OpenAI com a gigante de mídia Condé Nast permitirá que plataformas como ChatGPT e SearchGPT apresentem conteúdo de publicações conceituadas como Vogue, The New Yorker e GQ. Essa colaboração é a mais recente de uma série de acordos entre a OpenAI e grandes empresas de mídia, mostrando a crescente influência da IA na disseminação de conteúdo.