En ny lovgivning indført i Californien sigter mod at pålægge tech-virksomheder at markere indhold skabt af kunstig intelligens, lige fra uskadelige memes til vildledende falske indhold. Lovforslaget, kendt som AB 3211, har fået støtte sammen med et andet lovforslag, SB 1047, der kræver, at AI-udviklere gennemfører sikkerhedstest på visse modeller.
I en bevægelse mod gennemsigtighed og autenticitet støtter OpenAI, et firma baseret i San Francisco, behovet for tydelig mærkning af AI-genereret indhold, især i valgår, ifølge et brev sendt til medlem af Californiens forsamling, Buffy Wicks, der er forfatter til lovforslaget.
Mens valgene udfolder sig i lande, der repræsenterer en tredjedel af den globale befolkning i år, opstår der bekymringer over virkningen af AI-genereret indhold, som allerede er dukket op i valg, som f.eks. i Indonesien. Jason Kwon, OpenAIs strategidirektør, understregede vigtigheden af nye teknologier og standarder til at hjælpe brugere med at skelne mellem menneskeskabt indhold og AI-genereret indhold.
Godkendelsen af AB 3211 i delstatsforsamlingen med en enstemmig afstemning på 62-0 markerer et betydningsfuldt skridt fremad. Godkendelsen af lovforslaget af budgetudvalget sætter scenen for, at det kan gå videre til en afstemning i Senatet. Hvis det endeligt vedtages inden den lovgivende sessions afslutning den 31. august, vil lovforslaget blive sendt til guvernør Gavin Newsom til underskrift eller veto senest den 30. september.
OpenAIs nylige partnerskab med mediegiganten Condé Nast vil muliggøre platforme som ChatGPT og SearchGPT at vise indhold fra anerkendte publikationer som Vogue, The New Yorker og GQ. Dette samarbejde er det seneste i en række aftaler mellem OpenAI og større medievirksomheder, der viser den voksende indflydelse af AI på indholdsformidling.