Uuring lahenduste leidmiseks moonutuste vähendamiseks tehisintellektis

AI kallutatud eelarvamuste väljakutse ning selle mõju võrdsusele on üha olulisem, kuna AI süsteemid leiavad laiemat rakendust tervishoiu, finants- ja õigusteenuste sektorites. Internetiandmetest saadav intelligents sisaldab nii inimteadmiste hiilgust kui ka ühiskondliku eelarvamuse tumedamaid varjundeid. Sellest tulenev oht seisneb selles, et AI, millele kasutajad palju loodavad, võib neid eelarvamusi süvendada ja võimendada kahjulikus tsüklis.

Joshua Weaver Texas Opportunity & Justice Incubator’ist tõstab esile AI riski peegeldada ja tugevdada meie enda eelarvamusi. Seetõttu on AI mitmekesisuse tagamine eetiline imperatiiv, mis ületab vaid poliitilised kaalutlused. AI eksimused võivad omada käegakatsutavaid tagajärgi, nagu Rite-Aidi juhtum, kus eelarvamuslikud näotuvastused tekitasid valede isikute identifitseerimise probleeme.

Tehnoloogiahiiglased on teadlikud AI-dest eelarvamustest ja püüavad oma mudelites tagada kaasatust, kuid ei pääse kontroversidest, näiteks tekitas Google’i Gemini kujutiste genereerija eksimused debatte ülemääraste poliitilise korrektsuse üle. Samal ajal rõhutas Google’i tegevjuht Sundar Pichai mitmekesise esindatuse olulisust vastustes globaalsetele kasutajapäringutele.

Sasha Luccioni ettevõttest Hugging Face ja Jayden Ziegler ettevõttest Alembic Technologies avaldavad kahtlust puhttehnoloogilises lahenduses AI eelarvamuste vastu, kuna subjektiivsus on inherentne sellele, kuidas väljundit peetakse eelarvamuslikuks. Hugging Face hindab ja dokumenteerib pidevalt AI kalduvusi eelarvamustele vastupidamiseks.

Uued tehnikad eelarvamusliku AI vastu võitlemiseks hõlmavad algoritmilist eemaldamist ja mudelite häälestamist õigsuse eest premeerimisega, nagu näiteks Pinecone’i töö taasleidmise suurendatud loomisel.

Kokkuvõttes, kuigi tehnoloogia pakub vahendeid eelarvamusliku AI käsitlemiseks, on sügavam inimlik eneserefleksioon hädavajalik, tunnistades ja leevendades meie enda sisemisi eelarvamusi õiglasemate AI süsteemide loomise nimel.

Eelarvamuse käsitlemise tähtsus AI-s on põhiline, kuna AI-st saab üha enam kaasatud otsustusprotsessidesse. Eelarvamus AI-s võib tekkida mitmest allikast, sealhulgas eelarvamuslikud koolitusandmed, algoritmid ja inimeste eelarvamused, mis mõjutavad AI õppimist. See võib viia diskrimineerimiseni teatud rühmade vastu ja ühiskondlike ebavõrdsuste tugevdamiseni. Eelarvamuse AI-s lahendamine nõuab mitmepoolset lähenemist, sealhulgas mitmekesised ja esinduslikud andmekogumid, läbipaistvad algoritmid ning pidev jälgimine eelarvamuslike tulemuste suhtes.

Andmete ja algoritmide läbipaistvus on määrava tähtsusega eelarvamuste tuvastamisel ja korrigeerimisel. Avatud lähtekoodiga andmekogumite ja algoritmide kasutamine võimaldab kolleegide ülevaatust ja kogukonna osalemist võimalike eelarvamustega tegelemisel. Lisaks võivad tõlgendamise tehnikad, mis aitavad selgitada kasutajatele AI otsuseid, muuta AI süsteemid läbipaistvamaks ja vastutustundlikumaks.

Reguleerimine ja standardiseerimine võivad samuti aidata eelarvamuse AI vastu leevendamisel. Eetilise AI arengu suunamiseks eetiliste tavade suunas võivad juhised ja normid juhtida tööstust õiglasemate tavade poole. EL-is sisaldab üldine andmekaitse määrus (GDPR) sätteid, mis kaitsevad automatiseeritud otsustamise ning profiilide vastu, olles näiteks sellest, kuidas seadusandlus võib mõjutada AI eelarvamuslike tulemuste leevendamise pingutusi.

Kaasatus ja mitmekesisus AI arendamise meeskondades võivad aidata tegeleda alateadvuslike eelarvamustega ning tagada, et mitmekesised vaatenurgad on arvestatud AI-süsteemides. Uuringud on näidanud, et erineva taustaga meeskonnad võivad luua kaasavamaid ja eelarvamusvabu AI lahendusi.

Väljakutsed eelarvamuse vähendamisel AI-s hõlmavad tasakaalu leidmist eelarvamuse vastu võitlemise ja kultuuriliste ning individuaalsete erinevuste austamise vahel. Inimese eelarvamuste dünaamiline ja pidevalt muutuv olemus muudab ka lõplike lahenduste loomise keeruliseks.

Kontroversid tekivad sageli selle üle, mis moodustab eelarvamust ja kes määrab õiglase määratluse. On ka ülekorrektseerimise potentsiaal, mis võib takistada AI süsteemide efektiivsust ja täpsust. Lisaks on pinge privaatsuse murede ning vajaduse vahel rohkemate andmete järele, et tagada AI tasakaalustatus.

Eeliste hulka kuulub eelarvamuslikkuse vähendamisel AI-s, õiglasemate ja võrdsemate süsteemide loomine, parendatud otsuste tegemise protsessid, avaliku usalduse suurendamine AI-tehnoloogiate vastu ja diskrimineerimise ennetamine.

Puudusi võib leida keerukuse ja kulutuste rakendamisest selliste lahenduste puhul, potentsiaalsetest aeglustest AI arendamisel ning väljakutsetest eetiliste standardite osas üksmeelsuse saavutamisel.

Lisateabe saamiseks kunstlikest intelligentsetest ja sellega seotud aruteludest saate külastada järgmisi linke:

AI Now Institute
DeepMind
Partnership on AI
OpenAI

The source of the article is from the blog mgz.com.tw

Privacy policy
Contact