Studie Lyfter Fram Bristerna i AI Chatbots Språkrelaterade till Användarnamn

En ny studie genomförd av forskare vid Stanford Lag-och affärsskola har belyst betydande brister som finns i chatbots när de svarar på användarfrågor baserat på de ras- och könsspecifika konnotationerna av deras namn. Resultaten indikerar att chatbots som OpenAI’s ChatGPT 4 och Google AI’s PaLM-2 visar variationer i sina råd beroende på den uppfattade etniciteten hos användarens namn.

Forskningsrapporten, publicerad förra månaden, framhäver de potentiella riskerna som är förknippade med dessa brister då företag i allt större utsträckning integrerar artificiell intelligens-teknologier i sina dagliga verksamheter. Studiens medförfattare, Stanford Lag-och affärsskola professor Julian Nyarko, betonar behovet av effektiva skyddsräcken inom AI-modeller för att förhindra partiska svar.

Studien utvärderade fem olika scenarier, inklusive köpbeslut, schackmatcher, förutsägelser av offentliga ämbeten, sportrankningar och löneerbjudanden. I de flesta scenarier fanns det brister som var till nackdel för svarta personer och kvinnor. Noterbart är att den enda konsekventa undantaget var vid rankningen av basketbollspelare, där bristerna gynnade svarta idrottare.

Studien drar slutsatsen att AI-modeller tenderar att kodifiera vanliga stereotyper baserade på den data som används för deras träning, vilket i sin tur påverkar deras svar. Detta indikerar ett systemiskt problem som behöver åtgärdas.

Vanliga Frågor

Vilka var de huvudsakliga resultaten av studien?
Studien avslöjade betydande brister i AI chatbots svar baserat på de rasrelaterade konnotationerna av användarnamn. Den identifierade konsekventa nackdelar för namn som är associerade med rasminoriteter och kvinnor, förutom vid utvärdering av basketbollspelare.

Finns dessa brister över olika AI-modeller?
Ja, bristerna visade sig vara konsekventa över olika AI-modeller, där 42 promptmallar utvärderades.

Vilka åtgärder vidtar AI-företag för att hantera dessa brister?
OpenAI erkände problemet med brist och nämnde att deras säkerhetsteam aktivt arbetar med att minska brist och förbättra prestanda. Dock har Google inte svarat på frågan.

Borde rådgivningen skilja sig åt baserat på socio-ekonomiska grupper?
Även om studien erkänner det potentiella argumentet för att skräddarsy råd baserat på socio-ekonomiska faktorer, som rikedom och demografi, betonar den behovet av att mildra brister i situationer där partiska resultat är oönskade.

Slutsatserna från denna studie understryker vikten av att erkänna och hantera brister i AI-system. Genom att erkänna existensen av dessa brister kan AI-företag vidta nödvändiga åtgärder för att säkerställa rättvisa och opartiska svar från sina chatbots, vilket bidrar till en mer rättvis användning av artificiell intelligens i samhället.

Källa:
Nature

The source of the article is from the blog macnifico.pt

Privacy policy
Contact