Tecnologie di punta si uniscono per affrontare i deepfake generati da intelligenza artificiale

In un’azione congiunta per contrastare la crescente minaccia dei deepfake generati da intelligenza artificiale nelle elezioni democratiche, importanti aziende tecnologiche si sono unite per adottare misure precauzionali. I dirigenti delle principali giganti tecnologiche, tra cui Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI e TikTok, si sono riuniti alla Conferenza sulla sicurezza di Monaco in Germania per annunciare il loro impegno volontario.

Le aziende hanno riconosciuto la necessità di un’azione collettiva, comprendendo che nessuna singola entità può affrontare efficacemente il potenziale abuso della tecnologia dell’intelligenza artificiale da sola. Nick Clegg, presidente degli affari globali per Meta, ha sottolineato l’importanza della collaborazione in un’intervista, affermando che “nessuna singola azienda tecnologica, nessun governo, nessuna organizzazione della società civile è in grado di affrontare da sola l’avvento di questa tecnologia e il suo possibile uso malintenzionato”.

Sebbene l’accordo abbia principalmente un valore simbolico, esso rappresenta un impegno condiviso nel contrastare i deepfake generati da intelligenza artificiale che mirano a ingannare gli elettori. Piuttosto che imporre divieti o rimozioni, l’accordo si concentra principalmente su metodi per individuare etichettare contenuti ingannevoli sulle loro piattaforme. Le aziende si sono anche impegnate a condividere le migliori pratiche e a rispondere prontamente e proporzionalmente alla diffusione di tali contenuti.

Tuttavia, alcuni critici sostengono che gli impegni delineati nell’accordo mancano di forza e applicabilità. Rachel Orey, direttore associato senior del Progetto Elezioni presso il Bipartisan Policy Center, ritiene che, sebbene le aziende abbiano un interesse diretto nel garantire elezioni libere e corrette, la natura volontaria dell’accordo solleva preoccupazioni sulla sua efficacia.

Mentre più di 50 paesi si preparano alle elezioni nazionali del 2024, la minaccia dell’interferenza elettorale generata dall’intelligenza artificiale incombe pesantemente. Recenti incidenti, come le telefonate automatizzate dell’intelligenza artificiale che imitano la voce del presidente degli Stati Uniti Joe Biden e l’audio generato dall’intelligenza artificiale che impersona candidati politici, mettono in luce l’urgenza di affrontare questo problema.

In risposta, le aziende tecnologiche che partecipano all’accordo presteranno attenzione al contesto e si impegneranno a tutelare l’espressione educativa, documentaria, artistica, satirica e politica. Verrà data priorità alla trasparenza degli utenti riguardo alle loro politiche sui contenuti ingannevoli generati dall’intelligenza artificiale relativi alle elezioni e all’educazione pubblica sull’identificazione dei falsi generati dall’intelligenza artificiale.

Sebbene questo quadro volontario rappresenti un passo nella giusta direzione, c’è un crescente bisogno di legislazioni complete per regolare l’intelligenza artificiale in politica. Mentre gli Stati considerano l’implementazione di proprie misure di sicurezza, è responsabilità delle aziende di intelligenza artificiale affrontare attivamente le minacce rappresentate dai deepfake generati dall’intelligenza artificiale e altre forme di disinformazione.

The source of the article is from the blog kunsthuisoaleer.nl

Privacy policy
Contact