Influenza del dialetto linguistico sull’Intelligenza Artificiale e sui pregiudizi razziali

L’intelligenza artificiale (IA) è diventata parte integrante delle nostre vite, ma nuove ricerche suggeriscono che il dialetto della lingua utilizzata possa influenzare il modo in cui l’IA interpreta e presenta informazioni sugli individui. Uno studio recente condotto dall’Università di Cornell esplora i pregiudizi razziali sottostanti presenti nei grandi modelli linguistici (LLM), che sono algoritmi di apprendimento profondo progettati per generare testi simili a quelli umani.

Lo studio si è concentrato su vari LLM, come ChatGPT di OpenAI, GPT-4, LLaMA2 di Meta e il francese Mistral 7B. Utilizzando una tecnica chiamata matched guise probing, i ricercatori hanno esaminato come questi modelli linguistici rispondevano ai prompt sia in African American English che in Standardized American English.

I risultati hanno rivelato che gli individui che parlavano African American English erano più probabili di essere descritti in modi associati a stereotipi negativi o criminalità quando elaborati da determinati LLM. Ad esempio, GPT-4 sembrava essere più incline a “condannare a morte i rei” quando presentato con il linguaggio comunemente usato dagli afroamericani, indipendentemente dalla loro razza essere esplicitamente dichiarata.

Inoltre, lo studio ha scoperto che i LLM tendevano a presumere che gli individui che parlavano African American English ricoprissero lavori meno prestigiosi rispetto a coloro che utilizzavano l’inglese standard, riflettendo un pregiudizio nascosto all’interno degli algoritmi. Tuttavia, la ricerca ha indicato che più grande era il LLM, migliore era la sua comprensione dell’African American English, anche se le dimensioni non hanno mitigato i pregiudizi razziali nascosti.

Nonostante ci siano stati progressi nel ridurre il razzismo palese nei LLM, lo studio mette in guardia dal presupporre prematuramente che tutti i pregiudizi razziali siano stati eradicati. La preoccupazione deriva dal fatto che questi pregiudizi sono ora più sottilmente integrati, rendendoli più difficili da identificare e affrontare. I metodi tradizionali di addestramento dei LLM, che coinvolgono il feedback umano, spesso non riescono a contrastare questi pregiudizi nascosti e potrebbero consentire involontariamente ai modelli di nascondere superficialmente i pregiudizi razziali sottostanti che perpetuano.

Questa ricerca sottolinea l’urgente necessità dello sviluppo e del dispiegamento di sistemi di intelligenza artificiale per affrontare rigorosamente i pregiudizi razziali. Poiché l’IA continua a plasmare varie industrie e influenzare i processi decisionali, è cruciale garantire che queste tecnologie promuovano equità, inclusività e giustizia per tutti gli individui, indipendentemente dal loro dialetto linguistico o background culturale.

The source of the article is from the blog newyorkpostgazette.com

Privacy policy
Contact