AI Virksomheder Argumenterer for, at Ophavsretligt Materialet er Uundværligt for Træning af Avancerede Modeller

AI virksomheder står over for stigende pres på grund af brugen af ophavsretligt beskyttet materiale til træning af deres avancerede modeller. OpenAI, udvikleren bag den banebrydende chatbot ChatGPT, har udtalt, at det ville være umuligt at skabe værktøjer som ChatGPT uden adgang til ophavsretligt beskyttet data. Virksomheden er blevet involveret i en retssag mod New York Times og Microsoft, hvor de anklager dem for “ulovlig brug” af ophavsretligt beskyttet arbejde til at skabe deres produkter.

I en indsendelse til House of Lords understregede OpenAI, at ophavsretloven påvirker næsten enhver form for menneskelig udtryk, hvilket gør det nødvendigt at bruge ophavsretligt beskyttet materiale under træningen af AI-modeller. OpenAI argumenterede for, at begrænsning af træningsdata til ikke-ophavsretlige bøger og tegninger ville resultere i utilstrækkelige AI-systemer, som ikke opfylder behovene hos dagens borgere.

Forsvaret for AI-virksomheder hviler på det juridiske princip om “rimelig brug”, som tillader brugen af ophavsretligt beskyttet indhold under visse omstændigheder uden at søge tilladelse fra ejeren. OpenAI fastholder, at ophavsretloven ikke forbyder træningen af deres modeller.

Dette problem rækker ud over OpenAI. Getty Images sagsøger f.eks. Stability AI, skaberne af Stable Diffusion, for påståede ophavsretlige overtrædelser. I USA sagsøger musikforlag, herunder Universal Music, Anthropic, selskabet bag chatbotten Claude, som er støttet af Amazon, for påstået misbrug af ophavsbeskyttede sangtekster i træningen af deres model.

I lyset af bekymringer om AI-sikkerhed har OpenAI givet udtryk for støtte til uafhængig analyse af deres sikkerhedsforanstaltninger. Virksomheden støtter “red-teaming”, hvor tredjepartforskere efterligner adfærden hos skadelige aktører for at teste sikkerheden af AI-systemerne.

AI-virksomheder, herunder OpenAI, har også accepteret at samarbejde med regeringer om sikkerhedstests af deres mest kraftfulde modeller før og efter implementeringen, som en del af en aftale indgået ved et globalt sikkerhedstopmøde i Storbritannien sidste år.

The source of the article is from the blog krama.net

Privacy policy
Contact