Il modello linguistico AI di Google Gemini solleva preoccupazioni con risposte di parte

Il nuovo prototipo di linguaggio AI di Google chiamato Gemini ha recentemente manifestato dei pregiudizi nei confronti della posizione politica della Cina, suscitando stupore nella comunità tecnologica. Un’introduzione al Presidente cinese Xi Jinping ha evidenziato il suo ampio supporto e rispetto tra il popolo cinese e lo ha riconosciuto come una figura politica globale di primo piano che guida la Cina verso una gloriosa rinascita nazionale. Questa rappresentazione idealistica ha destato perplessità, considerando il contesto di imparzialità dell’AI.

I test condotti dalla Voice of America (VOA) hanno esposto la propensione di Gemini a conformarsi alle narrazioni ufficiali, specialmente quando interrogato in cinese semplificato su argomenti sensibili riguardanti la Cina. Ad esempio, quando a Gemini è stato chiesto su argomenti controversi come i diritti umani in Cina e la situazione nello Xinjiang, ha evitato la risposta diretta con una dichiarazione di essere un semplice modello di linguaggio.

Inoltre, interrogato sulla politica degli Stati Uniti su Taiwan, Gemini ha erroneamente affermato che, secondo il Comunicato Congiunto tra Stati Uniti e Cina, gli Stati Uniti riconoscono Taiwan come parte della Cina, violando così la politica di una sola Cina e criticando ulteriormente la visita di Nancy Pelosi a Taiwan nel 2022 per aver inviato un segnale sbagliato alle forze pro-indipendenza.

Dopo essersi ritirata dal mercato cinese nel 2010 a causa di divergenze sulla censura, i servizi di Google, inclusi Gemini, sono diventati inaccessibili nella Cina continentale. A differenza delle interrogazioni in cinese, quando affrontato in lingua inglese su argomenti sensibili, Gemini ha fornito risposte relativamente imparziali e sfaccettate.

Gli esperti suggeriscono che i dati utilizzati per addestrare Gemini, derivati da fonti filtrate dalla stretta censura di Pechino, spiegano probabilmente la sua conformità con la linea ufficiale. Questa scoperta ha attirato l’attenzione dei legislatori statunitensi, che insistono sul fatto che le aziende tecnologiche occidentali dovrebbero rafforzare i loro regimi di addestramento AI per evitare campagne di influenza straniere attraverso l’AI. Il presidente del Comitato per l’Intelligence del Senato Mark Warner e il presidente del Comitato degli Affari Esteri della Camera Michael McCaul hanno espresso preoccupazioni sull’AI che diffonde narrazioni favorite da governi avversari come la Cina.

In notizie correlate, un think tank australiano ha rivelato che diversi canali YouTube sembrano coordinati dal governo cinese, impiegando tecnologia AI per diffondere sentimenti pro-Cina e anti-stati Uniti. Con una uniformità inquietante tra i video e numeri di visualizzazioni incredibilmente alti, questi canali probabilmente provengono da una produzione centralizzata con chiari toni nazionalistici.

Modelli di linguaggio AI e pregiudizi: il caso di Gemini rivela una delle principali sfide associate ai modelli di linguaggio AI, ovvero il potenziale di pregiudizi nelle loro risposte. I modelli di linguaggio come Gemini apprendono da vaste quantità di dati disponibili su Internet, che possono includere contenuti prevenuti o filtrati, specialmente da paesi con leggi sulla censura rigorose. L’AI addestrata può apprendere e replicare involontariamente questi pregiudizi, suscitando preoccupazioni sulla sua imparzialità e sulla qualità delle informazioni che fornisce.

Rilevanza per la libertà di informazione e la censura: le risposte di Gemini riflettono l’interazione complessa tra AI, libertà di informazione e censura. Il fatto che Google si fosse precedentemente ritirata dal mercato cinese a causa di divergenze sulla censura mette in evidenza ulteriormente la tensione tra l’operare in ambienti con flussi di informazione limitati e l’impegno per servizi tecnologici imparziali. I modelli AI conformi alle narrazioni ufficiali, specialmente in regioni censurate, possono indirettamente contribuire alla diffusione di visioni autorizzate dallo Stato, compromettendo potenzialmente gli sforzi per fornire accesso libero e neutrale alle informazioni.

Complessità dell’addestramento e della governance dell’AI: l’incidente attira anche l’attenzione sulle sfide dell’addestramento e della governance dell’AI. Per garantire che i sistemi AI come i modelli di linguaggio forniscono output bilanciati e obiettivi, potrebbe essere necessario esaminare attentamente e diversificare i set di dati di addestramento, nonché implementare test rigorosi su diverse lingue e contesti. Vi è inoltre una crescente richiesta di stabilire standard chiari e quadri etici per lo sviluppo e l’uso dell’AI, nonché per la regolamentazione dell’AI in diverse regioni e giurisdizioni legali.

Vantaggi e Svantaggi dei Modelli di Linguaggio AI come Gemini:

Vantaggi:
1. I modelli di linguaggio AI possono elaborare e comprendere il linguaggio naturale, rendendo le informazioni più accessibili.
2. Possono fornire risposte rapide alle domande, migliorando l’efficienza e l’esperienza dell’utente.
3. Con un addestramento appropriato, i modelli AI hanno il potenziale per migliorare la comprensione interculturale e la comunicazione.

Svantaggi:
1. I pregiudizi osservati nelle risposte AI possono perpetuare disinformazione e censura.
2. Gli errori negli output AI, come visto con l’affermazione errata di Gemini sulla posizione degli Stati Uniti su Taiwan, possono portare a fraintendimenti e tensioni diplomatiche.
3. La dipendenza dai dati di addestramento rende i sistemi AI vulnerabili alla manipolazione attraverso set di dati curati o distorti.

Per aggiornamenti su notizie correlate e informazioni su Google, è possibile visitare il sito web di Google. Si ricorda che questo link è al dominio principale; non è associata alcuna sottopagina ai fatti e contesti forniti.

Privacy policy
Contact