Errori dell’IA di Google richiedono misure più rigorose

Le imprevedibili risposte dell’intelligenza artificiale pongono nuove sfide

La recente implementazione da parte di Google di uno strumento di revisione basato sull’intelligenza artificiale, destinato a offrire risposte istantanee nei risultati di ricerca, ha generato risposte inaspettate e fantasiose come affermazioni riguardanti l’esistenza di gatti lunari. In un caso, quando dei reporter dell’Associated Press hanno chiesto se i gatti fossero stati sulla Luna, la ricerca AI di Google ha restituito una risposta fantasiosa suggerendo che gli astronauti avevano effettivamente incontrato e persino aiutato amici felini sulla superficie lunare, attribuendo in modo fantasioso le storiche parole di Neil Armstrong a un “piccolo passo per un gatto”.

Gli esperti esprimono preoccupazione per i sistemi di intelligenza artificiale che attingono da fonti dubbie, portando alla diffusione di informazioni false. Melodie Mitchell, una ricercatrice statunitense nel campo dell’IA, ha sperimentato di persona gli svantaggi dell’IA di Google quando ha chiesto informazioni sui presidenti musulmani degli Stati Uniti. Google ha risposto con sicurezza fornendo informazioni errate, affermando falsamente che Barack Obama fosse l’unico presidente musulmano. Mitchell ha evidenziato che l’IA ha supportato la sua affermazione errata con un riferimento a una pubblicazione accademica, che non ha confermato la disinformazione ma ha semplicemente menzionato la teoria del complotto.

Gli errori dell’IA non includono solo errori divertenti ma anche false notizie potenzialmente dannose. Le query di emergenza critica, poste dagli utenti in situazioni di stress, possono rimanere non verificate a causa dello stress e dell’urgenza, aggravando così la situazione creando una fiducia erronea nelle informazioni a prima vista. Inoltre, vi è una crescente preoccupazione che queste reti neurali rafforzino pregiudizi pericolosi, con contenuti problematici scoperti nei set di dati utilizzati per addestrare l’IA.

Google ha riconosciuto l’importanza di agire prontamente per correggere questi errori e sta sfruttando queste esperienze per futuri miglioramenti. L’urgenza di mantenersi al passo nel panorama competitivo, con realtà come i developer americani OpenAI e Perplexity AI, potrebbe essere stato un fattore contribuente ai problemi riscontrati con la nuova funzionalità. In modo particolare, Perplexity AI ha dimostrato di offrire risposte più accurate rispetto a Google per diverse query.

Importanza della Sorveglianza Responsabile dell’IA

Con l’evolversi della tecnologia, i sistemi di IA come quello di Google stanno sempre più assumendo il compito di fornire informazioni. Tuttavia, questa responsabilità comporta rischi intrinseci quando l’accuratezza è compromessa. Da questa situazione sorgono due domande principali:

1. Come possiamo garantire che le informazioni fornite dall’IA siano accurate?
2. Quali misure dovrebbero essere adottate per prevenire la diffusione della disinformazione?

Le sfide legate agli errori e alla disinformazione generati dall’IA includono garantire la affidabilità delle fonti dalle quali gli IA attingono, prevenire il rafforzamento dei pregiudizi sociali e correggere rapidamente gli errori quando si verificano.

Affrontare la disinformazione e i pregiudizi

Le controversie in questo ambito spesso coinvolgono la decisione su chi è responsabile della disinformazione generata dall’IA e su come regolare l’IA per prevenire tali situazioni. Lo sviluppo di algoritmi più sofisticati per verificare le informazioni e l’uso di dati affidabili fanno parte della soluzione. Inoltre, affrontare i pregiudizi inseriti nei set di dati di addestramento è essenziale per ottenere risultati equi e imparziali dall’IA.

I vantaggi degli strumenti di revisione trainati dall’IA sono molteplici. Forniscono un rapido accesso alle informazioni, aiutano a gestire numerose query contemporaneamente ed eliminano alcuni errori umani. Tuttavia, gli svantaggi sono altrettanto significativi. Essi includono la trasmissione di informazioni errate, il potenziale rafforzamento dei pregiudizi e la creazione di confusione o danni se ci si affida a tali strumenti per decisioni critiche.

In sintesi, mentre il potenziale dell’IA è vasto, altrettanto vasta è la necessità di una rigorosa sorveglianza, raffinamento e considerazione etica. Per maggiori informazioni sull’intelligenza artificiale e il suo sviluppo, i seguenti link potrebbero interessare:
– OpenAI
– Google

È essenziale che leader settoriali e regolatori contribuiscano allo sviluppo di standard e quadri per un’IA responsabile al fine di evitare di minare la fiducia pubblica in questa potente tecnologia.

Privacy policy
Contact