Le aziende di intelligenza artificiale dipendono da materiali protetti da copyright per innovazioni rivoluzionarie

Sommario: Le aziende di intelligenza artificiale (AI), come OpenAI, si affidano pesantemente a materiali protetti da copyright per addestrare i loro modelli innovativi, secondo una presentazione alla commissione per le comunicazioni e selezione digitale della Camera dei Lord. OpenAI ha affermato che la creazione di strumenti come il suo famoso chatbot, ChatGPT, sarebbe impossibile senza l’accesso a contenuti protetti da copyright. L’azienda ha sottolineato che la protezione del copyright si estende a varie forme di espressione umana, come blog posts, fotografie e documenti governativi, rendendola cruciale per l’addestramento di grandi modelli linguistici. OpenAI ha sottolineato che limitare i materiali di addestramento a risorse libere da copyright porterebbe a sistemi di intelligenza artificiale che non riescono a soddisfare le esigenze dei cittadini di oggi. La presentazione arriva in mezzo a sfide legali, tra cui una causa intentata dal New York Times contro OpenAI e Microsoft per l’uso illegale presumibilmente dei lavori del giornale.

L’uso di materiali protetti da copyright è diventato un tema controverso nell’industria dell’intelligenza artificiale. Il chatbot rivoluzionario di OpenAI, ChatGPT, è stato sviluppato con l’assistenza di dati raccolti da internet, gran parte dei quali è protetta da copyright. I critici sostengono che l’uso di contenuti protetti da copyright senza autorizzazione violi i diritti dei creatori di contenuti. Tuttavia, le aziende di intelligenza artificiale sostengono che la loro dipendenza da materiali protetti da copyright sia coperta dalla dottrina legale del “fair use”, che consente l’uso di contenuti protetti da copyright in determinate circostanze senza richiedere autorizzazione.

La presentazione di OpenAI alla Camera dei Lord ha affrontato anche preoccupazioni riguardanti la sicurezza dell’intelligenza artificiale. L’azienda ha espresso il suo sostegno all’analisi indipendente delle sue misure di sicurezza e ha sottolineato l’importanza del “red-teaming” dei sistemi di intelligenza artificiale. Questo coinvolge i ricercatori di terze parti che testano la sicurezza dei modelli di intelligenza artificiale simulando il comportamento di attori malintenzionati. OpenAI è una delle diverse aziende che hanno accettato di collaborare con i governi per testare la sicurezza dei loro modelli più potenti, sia prima che dopo la loro implementazione.

Le sfide legali affrontate da OpenAI, compresa la causa intentata dal New York Times, evidenziano la complessa relazione tra lo sviluppo dell’intelligenza artificiale e il diritto d’autore. Man mano che l’intelligenza artificiale continua a progredire, trovare un equilibrio tra promuovere l’innovazione e rispettare i diritti di proprietà intellettuale rimarrà una questione critica per l’industria.

The source of the article is from the blog zaman.co.at

Privacy policy
Contact