Una Nuova Visione sul Controllo dei Contenuti Generati da AI e Media Manipolati da Meta

Meta, il gigante dei social network, ha annunciato delle novità riguardanti le linee guida sui contenuti generati da AI e sui media manipolati. Questo cambiamento è stato introdotto in risposta alle critiche rivolte al Consiglio di sorveglianza dell’azienda e mira ad affrontare le preoccupazioni legate alle informazioni fuorvianti e alla manipolazione.

A partire dal prossimo mese, Meta introdurrà un distintivo “Realizzato con AI” per i deepfake, una forma di media manipolato creato utilizzando l’intelligenza artificiale. Inoltre, quando i contenuti sono stati alterati in altre modalità che potrebbero trarre in inganno il pubblico su questioni importanti, Meta fornirà informazioni contestuali aggiuntive agli utenti.

Questa modifica nella politica ha implicazioni significative, specialmente in un anno ricco di elezioni in tutto il mondo. Ciò significa che Meta potrebbe etichettare più contenuti con il potenziale di trarre in inganno, garantendo trasparenza agli utenti. Tuttavia, l’etichettatura dei deepfake sarà limitata ai contenuti che mostrano “indicatori di immagini AI standard del settore” o che sono stati dichiarati dall’autore come generati da AI.

Mentre questo cambiamento potrebbe portare a una maggiore presenza di contenuti generati da AI e di media manipolati sulle piattaforme di Meta, l’azienda crede che fornire trasparenza e contesto aggiuntivo sia un modo migliore per gestire tali contenuti piuttosto che rimuoverli del tutto.

Per agevolare questa modifica, Meta smetterà di rimuovere i contenuti basandosi esclusivamente sulla sua attuale politica sui video manipolati a luglio. Questo periodo permette agli utenti di familiarizzare con il processo di autodisclosure prima che i contenuti non siano più rimossi.

È probabile che il cambio di approccio sia una risposta alle crescenti richieste rivolte a Meta riguardanti la moderazione dei contenuti e il rischio sistemico. Il Digital Services Act dell’Unione Europea, che impone regole ai social network di Meta, ha spinto l’azienda a trovare un equilibrio delicato tra la rimozione dei contenuti illegali e la protezione della libertà di espressione.

La critica del Consiglio di sorveglianza ha giocato un ruolo cruciale nella decisione di Meta di rivedere le sue politiche. Il Consiglio, finanziato da Meta ma operante in modo indipendente, ha esaminato la risposta di Meta ai contenuti generati da AI. In particolare, il Consiglio ha evidenziato l’incoerenza della politica di Meta, che si applicava solo ai video creati da AI, lasciando intatti gli altri tipi di media manipolati.

Meta ha riconosciuto il feedback del Consiglio e intende ampliare il proprio approccio per includere audio generati da AI, foto e altre forme di media manipolati. L’azienda prevede di utilizzare segnali condivisi dal settore per individuare i contenuti generati da AI e gli utenti avranno la possibilità di dichiarare se i loro caricamenti contengono contenuti generati da AI.

Nei casi in cui i media creati o modificati digitalmente comportino un rischio significativo di ingannare il pubblico su questioni importanti, Meta potrebbe utilizzare etichette più prominenti per fornire informazioni e contesto aggiuntivi. L’obiettivo è dotare gli utenti degli strumenti necessari per valutare accuratamente i contenuti e comprenderne il contesto su diverse piattaforme.

È importante sottolineare che Meta non rimuoverà i contenuti manipolati, basati su AI o meno, a meno che violino altre politiche come l’interferenza elettorale o il molestare gli utenti. Invece, l’azienda aggiungerà etichette informative e contesto in situazioni che generano un elevato interesse pubblico.

Per garantire l’accuratezza dei contenuti, Meta ha stretto partnership con quasi 100 verificatori di fatti indipendenti che aiuteranno a individuare i rischi associati ai media manipolati. Queste entità esterne continueranno a esaminare i contenuti AI falsi e fuorvianti. Quando i contenuti sono classificati come “Falsi o Alterati”, Meta implementerà modifiche algoritmiche per ridurne la diffusione e visualizzerà una sovrapposizione con informazioni aggiuntive per gli utenti che li incontreranno.

Mentre Meta adotta misure per affrontare le preoccupazioni legate ai contenuti generati da AI e ai media manipolati, punta a trovare un equilibrio tra la tutela contro la disinformazione e la salvaguardia dei principi della libertà di espressione.

I cambiamenti nelle linee guida di Meta riguardanti i contenuti generati da AI e i media manipolati sono significativi per il settore e hanno implicazioni più ampie per il panorama dei social media. Questa mossa arriva mentre Meta si trova sotto crescente pressione da parte dei regolatori, dei legislatori e del pubblico per affrontare la diffusione di informazioni fuorvianti e di contenuti ingannevoli sulle sue piattaforme.

Negli ultimi anni, c’è stata una crescente preoccupazione sull’uso della tecnologia AI per creare video deepfake e altre forme di media manipolati. I deepfake, in particolare, hanno il potenziale di ingannare il pubblico alterando in modo convincente il volto di qualcuno su un altro corpo o fabbricando audio realistico. Introducendo un distintivo “Realizzato con AI” per i deepfake e fornendo informazioni contestuali aggiuntive per i contenuti manipolati, Meta mira ad aumentare la trasparenza e consentire agli utenti di formulare giudizi informati sui contenuti che incontrano.

Il momento di questi cambiamenti è cruciale poiché diversi paesi si stanno avviando verso le elezioni. Con un’etichettatura e una contestualizzazione maggiori dei contenuti potenzialmente fuorvianti, Meta mira a minimizzare l’impatto delle informazioni ingannevoli durante eventi significativi come le elezioni. Divulgando se un contenuto è generato da AI e fornendo indicatori standard del settore per le immagini AI, Meta spera di mitigare i rischi associati ai media manipolati garantendo al contempo la protezione della libera espressione.

Questo cambiamento di politica si allinea anche con il Digital Services Act dell’Unione Europea, che impone regolamenti alle piattaforme di social media come Meta. L’Atto richiede alle piattaforme di rimuovere tempestivamente i contenuti illegali garantendo nel contempo i principi della libertà di espressione. Il nuovo approccio di Meta trova un equilibrio tra la rimozione dei contenuti dannosi e la promozione della trasparenza, in linea con le richieste normative rivolte all’azienda.

La critica del Consiglio di sorveglianza sulla politica precedente di Meta sui contenuti generati da AI ha svolto un ruolo fondamentale nella decisione dell’azienda di rivedere le linee guida. L’analisi indipendente del Consiglio ha evidenziato la necessità di coerenza e copertura estesa oltre ai video creati da AI. Includendo audio generato da AI, foto e altre forme di media manipolati, Meta mira a affrontare questa incoerenza e a fornire un approccio più completo per contrastare i contenuti ingannevoli.

Per garantire l’accuratezza dei contenuti, Meta ha collaborato con verificatori di fatti indipendenti. Circa 100 organizzazioni assisteranno Meta nell’individuare i rischi associati ai media manipolati. Sfruttando l’esperienza di queste entità esterne, Meta mira a migliorare il rilevamento dei contenuti falsi e fuorvianti generati da AI. Quando un contenuto viene identificato come “Falso o Alterato”, Meta implementerà modifiche agli algoritmi per ridurne la diffusione e mostrerà informazioni aggiuntive attraverso etichette sovrapposte. Questo sforzo collaborativo riflette l’impegno di Meta nel combattere la disinformazione e nell’abilitare gli utenti a valutare la credibilità dei contenuti che incontrano.

Mentre Meta affronta le sfide della moderazione dei contenuti e del rischio sistemico, questi cambiamenti di politica segnano l’impegno dell’azienda nel affrontare responsabilmente il problema dei media manipolati. Priorizzando trasparenza, contestualizzazione e collaborazione, Meta mira a trovare un equilibrio tra la tutela

The source of the article is from the blog publicsectortravel.org.uk

Privacy policy
Contact