Meta Cerca di Rilevare e Etichettare Immagini Generate da Intelligenza Artificiale per Combattere la Frode

Meta, l’azienda madre di Facebook, Instagram e Threads, sta adottando misure per identificare ed etichettare immagini generate da intelligenza artificiale (IA) sulle proprie piattaforme. Questo passo fa parte degli sforzi di Meta per contrastare la frode e rendere responsabili coloro che ingannano intenzionalmente gli altri. Attualmente, le immagini fotorealistiche generate da IA di Meta sono già etichettate come tali. Tuttavia, in un recente post sul blog, Nick Clegg, Presidente degli Affari Globali di Meta, ha annunciato che l’azienda ha intenzione di estendere l’etichettatura alle immagini generate da IA create su servizi concorrenti.

Sebbene le immagini generare da IA di Meta contengano già metadati e filigrane invisibili che ne indicano la provenienza da IA, l’azienda sta sviluppando strumenti per rilevare questi marcatori quando utilizzati da altre organizzazioni come Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock. Identificando ed etichettando i contenuti generati da IA, Meta mira a affrontare la linea sottile tra contenuto umano e sintetico, fornendo agli utenti trasparenza sulla tecnologia dietro le immagini che incontrano.

Nei prossimi mesi, Meta ha in programma di applicare queste etichette in tutte le lingue. L’azienda riconosce l’importanza di questo sforzo, soprattutto durante le importanti elezioni globali che si terranno l’anno prossimo. Tuttavia, è importante notare che al momento l’etichettatura riguarda solo le immagini e non include i contenuti audio e video generati da IA.

Oltre all’etichettatura, Meta intende apporre etichette più evidenti su immagini, video o audio manipolati o alterati digitalmente che presentano un alto rischio di ingannare materialmente il pubblico. Inoltre, l’azienda sta esplorando lo sviluppo di tecnologie in grado di rilevare automaticamente i contenuti generati da IA, anche quando questi marcatori invisibili sono stati rimossi o sono assenti.

Clegg ha riconosciuto la natura avversariale di questo settore e la necessità di un’innovazione continua per stare al passo con coloro che cercano di ingannare con contenuti generati da IA. Dal momento che le deepfake generate da IA hanno già fatto la loro comparsa durante il ciclo delle elezioni presidenziali negli Stati Uniti e sono avvenuti casi come l’alterazione di immagini controversa in Australia, gli sforzi di Meta per rilevare ed etichettare i contenuti generati da IA sono vitali per contrastare le pratiche ingannevoli.

Favorire la trasparenza e fornire agli utenti informazioni sulla natura dei contenuti che incontrano, è l’obiettivo di Meta per creare un ambiente digitale più sicuro in cui le persone possono navigare e interagire con i media in modo responsabile.

The source of the article is from the blog scimag.news

Privacy policy
Contact