Ny lovgivning foreslået for at imødegå bekymringer vedrørende brugen af AI-indhold

En gruppe medieledere appellerede for nylig til lovgivere om at indføre ny lovgivning, der ville kræve, at udviklere af kunstig intelligens kompenserer udgivere for at bruge deres indhold til at træne deres computersystemer. Dette krav kommer som reaktion på den stigende brug af AI-chatbots, såsom OpenAI’s ChatGPT, der har rejst bekymringer blandt medieorganisationer og ført til betydelige jobnedskæringer i branchen.

Under en høring før den amerikanske senat understregede Roger Lynch, administrerende direktør for Condé Nast, at nuværende AI-modeller blev udviklet ved hjælp af “stjålne varer”, da chatbots skraber og viser nyhedsartikler fra udgivere uden tilladelse eller kompensation. Han forklarede endvidere, at nyhedsorganisationer sjældent har kontrol over, hvordan deres indhold bruges til at træne AI eller genereres af modellerne.

Mens en nylig retssag anlagt af The New York Times afslørede nyhedsudgiveres ønske om at forhindre AI-modeller i at skrabe deres artikler uden kompensation, går dette problem ud over nyhedsmediebranchen. I 2023 blev der anlagt flere retssager mod AI-virksomheder, herunder prominente forfattere som Sarah Silverman, Margaret Atwood og Dan Brown, der fremhævede den bredere bekymring vedrørende indholdsbrug.

For at imødegå problemet med indholdsudnyttelse foreslog Lynch, at AI-virksomheder benytter licenseret indhold og kompenserer udgivere for deres indhold, der bruges til træning og output. Han argumenterede for, at denne tilgang ville sikre et bæredygtigt og konkurrencedygtigt økosystem, hvor der fortsat produceres indhold af høj kvalitet.

Danielle Coffey, præsident og administrerende direktør for News Media Alliance, understregede også behovet for at beskytte udgiveres indhold. Hun bemærkede, at AI-modeller har indført unøjagtigheder og produceret misledende information ved at skrabe indhold fra upålidelige kilder. Dette risikerer ikke kun at give offentligheden forkerte oplysninger, men beskadiger også udgivernes omdømme.

Curtis LeGeyt, præsident og administrerende direktør for National Association of Broadcasters, rejste bekymringer om brugen af AI til at skabe deepfakes og sprede misinformation, hvilket underminerer tilliden hos publikum til lokale personligheder.

Mens det er vigtigt at implementere juridiske sikkerhedsforanstaltninger for at beskytte nyhedsudgivere mod misbrug af indhold af AI, kan det også være fordelagtigt for udviklere på lang sigt. Coffey forklarede, at generative AI-modeller og produkter ikke kan være bæredygtige, hvis de underminerer det kvalitetsindhold, de er afhængige af.

Konklusionen er, at den foreslåede lovgivning sigter mod at imødegå bekymringerne vedrørende brugen af AI til at skrabe og generere indhold uden passende kompensation eller tilladelse. Den søger at etablere et afbalanceret og bæredygtigt økosystem, hvor både AI-udvikling og skabelsen af indhold af høj kvalitet kan eksistere side om side.

The source of the article is from the blog smartphonemagazine.nl

Privacy policy
Contact