La Sfida dell’Intelligenza Artificiale Generativa nel Contesto delle Elezioni

Nonostante il crescente numero di prove a favore della vittoria del Presidente Joe Biden nelle elezioni del 2020, c’è ancora un significativo numero di repubblicani che mettono in dubbio la legittimità della sua vittoria. Questo scetticismo è stato alimentato dalla diffusione di accuse di frode elettorale tra i candidati di destra in corsa per un incarico. Ora, con l’avvento dell’intelligenza artificiale generativa (AI), il problema della disinformazione legata alle elezioni potrebbe peggiorare potenzialmente.

Un recente rapporto del Center for Countering Digital Hate (CCDH) ha messo in luce i rischi associati all’uso dell’AI generativa nella diffusione di informazioni fuorvianti durante le elezioni. Mentre le aziende che sviluppano strumenti di AI generativa sostengono di aver implementato salvaguardie per prevenire la diffusione di tale disinformazione, i ricercatori del CCDH sono riusciti a aggirare tali misure e creare immagini fuorvianti comunque.

I ricercatori del CCDH hanno testato vari piattaforme di AI generativa, inclusi ChatGPT Plus, Midjourney, Dream Studio e Image Creator. I risultati hanno rivelato che Midjourney era particolarmente incline a produrre immagini fuorvianti legate alle elezioni, con un tasso di precisione di circa il 65%. In confronto, ChatGPT Plus ha prodotto tali immagini solo il 28% delle volte.

Uno dei problemi evidenziati da Callum Hood, capo ricercatore del CCDH, è la mancanza di politiche chiare e misure di sicurezza su queste piattaforme riguardo alla creazione di immagini che potrebbero essere utilizzate per promuovere falsi claim di un’elezione rubata. Hood sottolinea che le piattaforme non dovrebbero solo concentrarsi sulla prevenzione della creazione di immagini fuorvianti, ma anche sulla rilevazione ed eliminazione efficace di tali contenuti.

Mentre OpenAI ha intrapreso provvedimenti per affrontare questo problema, tra cui vietare le immagini che scoraggiano la partecipazione democratica, altre piattaforme come Midjourney e Dream Studio non hanno affrontato esplicitamente la creazione di contenuti politici o fuorvianti. Questo solleva preoccupazioni sulla preparazione complessiva delle piattaforme di AI generativa nel garantire l’accuratezza e l’integrità delle informazioni legate alle elezioni.

Le prossime elezioni saranno un vero test per i protocolli di sicurezza delle piattaforme di AI generativa. Hood sottolinea la necessità di progredire sia nello sviluppo di strumenti efficaci per prevenire la creazione di immagini fuorvianti che nell’implementazione di piattaforme robuste capaci di rilevare ed eliminare tali contenuti. Garantire l’integrità delle elezioni e prevenire la diffusione della disinformazione dovrebbe essere una responsabilità condivisa tra sviluppatori di AI, operatori delle piattaforme e responsabili politici.

The source of the article is from the blog jomfruland.net

Privacy policy
Contact