FACStamps: Una soluzione per contrastare le false informazioni e i deepfake

Un futuro in cui i deepfake minacciano l’integrità della democrazia potrebbe sembrare una possibilità lontana. Tuttavia, eventi recenti nel 2024 hanno dimostrato che misure efficaci contro i deepfake sono non solo necessarie, ma anche realizzabili. L’emergere di sofisticati software di intelligenza artificiale a basso costo alla fine del 2022 ha permesso la creazione di audio, video e fotografie realistici, portando alla rapida diffusione dei deepfake. I deepfake politici, tra cui dichiarazioni fabbricate del presidente Biden, un’immagine manipolata di Donald Trump e video manipolati di vari politici, rappresentavano un rischio significativo per il processo democratico.

Gli sforzi per regolamentare l’intelligenza artificiale e contrastare i deepfake sono iniziati con proposte dalla Casa Bianca, dall’Unione Europea e dalle principali aziende tecnologiche, concentrandosi sulla marcatura con filigrane dei contenuti generati dall’intelligenza artificiale per identificarne l’origine artificiale. Tuttavia, sono emerse sfide nella determinazione dei requisiti legali e dei meccanismi di applicazione di tali misure. Di conseguenza, nessun sistema ampiamente adottato è stato implementato.

Tutto questo è cambiato con l’attacco coordinato di deepfake più grande della storia avvenuto dopo le elezioni di novembre 2024. L’onda di audio, video e immagini fasulle che raffiguravano frodi elettorali ha sommerso le piattaforme dei social media, ostacolando gli sforzi di smentita da parte dei media e del governo. È stato un campanello d’allarme che ha evidenziato l’urgente necessità di misure di autenticazione contro i deepfake.

La svolta è arrivata all’inizio del 2026, quando un gruppo di giornalisti digitali ha formato l’Alleanza FAC (Fact Authenticated Content). Il loro obiettivo era proteggere la credibilità dei media mainstream concentrandosi sul mantenere i deepfake fuori dalle notizie. Invece di imporre un sistema di marcatura a filigrana per tutti i contenuti, l’alleanza ha sviluppato il FACStamp volontario.

I FACStamps sono piccole icone o avvisi audio che indicano che il contenuto è stato autenticato e non è un deepfake. Il timbro viene inserito automaticamente nel contenuto visivo o audio al momento della registrazione, assicurando che non sia stato generato dall’intelligenza artificiale. Per conservare il FACStamp dopo la modifica, il contenuto deve essere collegato al Centro di Verifica FAC, un’organizzazione no profit che verifica la legittimità delle modifiche apportate.

Inizialmente utilizzati dai giornalisti, i FACStamps si sono diffusi rapidamente in altri settori. I rivenditori online hanno adottato i FACStamps per i video e le immagini dei prodotti, fornendo rassicurazione ai clienti. Le persone hanno iniziato a utilizzare i FACStamps per vendere prodotti online, offrendo una prova che le immagini non sono state manipolate dall’intelligenza artificiale. Nei social media, i FACStamps sono diventati un simbolo di autenticità, verificando che immagini e video siano autentici.

Anche l’industria dell’intelligenza artificiale sostiene i FACStamps, poiché un’eccessiva esposizione ai dati generati dall’intelligenza artificiale può portare al “collasso del modello” durante l’addestramento. I profili delle app di incontri, le videoconferenze e i contenuti degli influencer si affidano sempre di più ai FACStamps per mantenere credibilità e fiducia.

Nella battaglia contro la disinformazione e i deepfake, la crescente diffusione dei FACStamps rappresenta un passo significativo avanti. Abbracciando misure di autenticazione, individui, aziende e organizzazioni dei media possono garantire che i contenuti rimangano affidabili e che si salvaguardi l’integrità delle informazioni nel nostro mondo sempre più digitale.

The source of the article is from the blog combopop.com.br

Privacy policy
Contact