Prihodnost umetne inteligence: Poudarek na kulturni občutljivosti v tehnoloških orodjih

V hitro spreminjajočem se svetu umetne inteligence (AI) je nedavni incident, povezan z Googlovim klepetalnim botom Gemini, razkril izzive pri odpravljanju kulturnih pristranskosti v tehnoloških orodjih. Klepetalni bot je ustvaril slike črnih in azijskih nacističnih vojakov, sprožil val ogorčenja in osvetlil potencialne posledice nekontrolirane moči AI.

Izvršni direktor Googla Sundar Pichai je obsodil napake, ki jih je naredil klepetalni bot Gemini, priznal, da so ustvarjene slike zgodovinsko nepravilne, in začasno ustavil ustvarjanje slik ljudi. Javna reakcija na ta incident služi kot opomin na ogromen vpliv nekaj tehnoloških velikanov nad platformami AI, ki imajo potencial preoblikovanja družbe.

Joshua Weaver, pravnik in tehnološki podjetnik, opisuje Googlova dejanja kot preveč “občutljiva,” trdi, da je podjetje šlo predaleč v poskusu, da bi prednost dalo vključevanju in raznolikosti. Medtem ko je Google hitro popravil svoje napake, Charlie Burgoyne, izvršni direktor laboratorija za uporabno znanost Valkyrie, meni, da takšni popravki obravnavajo le površinski problem, ne da bi se posvetili osnovnim težavam.

Google, skupaj z drugimi tehnološkimi velikani, se je zdaj vključil v dirko AI z podjetji, kot so Microsoft, OpenAI in Anthropic. To povečano tekmovanje pusti malo prostora podjetjem za izboljšanje svojih izdelkov v daljšem časovnem obdobju. Napake, narejene pri prizadevanju za kulturno občutljivost, postajajo pomembne točke, zlasti v politično deljenem podnebju v Združenih državah Amerike.

Ker AI vse bolj ustvarja ogromne količine informacij, postaja vprašanje, kdo nadzoruje varnostne ukrepe AI, bistveno. Potencial za informacijsko zavajanje in poudarjanje pristranosti dviguje skrb v zvezi z vplivom tistih, ki nadzorujejo sisteme AI. Nedavni spodrsljaj je spodbudil strokovnjake k vprašanju, kolikšen nadzor imajo uporabniki nad orodji AI in informacijami, ki jih proizvajajo.

Karen Palmer, nagrajena ustvarjalka mešane resničnosti, predvideva prihodnost, v kateri bo AI lahko vplival na pomembne odločitve, npr. preusmerjanje posameznikov s prekrški na policijsko postajo namesto na njihove namenjene cilje. Usposabljanje modelov AI močno temelji na obstoječih podatkih, ki vsebujejo pristranskosti, socialne neenakosti in dezinformacije.

Inženirji, ki si prizadevajo za uravnoteženost algoritmov za odražanje človeške raznolikosti, se soočajo z velikim izzivom. Tehnološki pravnik Alex Shahrestani poudarja težavnost zaznavanja in odpravljanja pristranskosti, saj so tudi dobro misleči inženirji vplivani s svojimi lastnimi življenjskimi izkušnjami in podzavestnimi predsodki. Poleg tega pomanjkanje preglednosti glede notranjega delovanja modelov generativne AI še poslabšuje problem, kar preprečuje uporabnikom odkrivanje skritih pristranskosti.

Strokovnjaki in aktivisti pozivajo k večji raznolikosti med ekipami razvijalcev AI in k večji transparentnosti glede delovanja orodij AI. Pomembno je vključiti poglede različnih skupnosti po vsem svetu in graditi algoritme, ki na etičen način izkoriščajo njihove podatke. Ta pristop, ki ga uporabljajo organizacije, kot je Indigenous AI in podobne, nasprotuje vrhnjemu pristopu, opaženemu v tehnološki industriji, ter spodbuja vključujoč in kulturno občutljiv razvoj AI.

Incident z Googlovim klepetalnim robotom Gemini služi kot budnica za tehnološko industrijo, da bo dala prednost kulturni občutljivosti in raznolikosti pri AI orodjih. Z obravnavanjem teh izzivov neposredno in vključevanjem širokega spektra perspektiv skozi celoten razvojni proces lahko industrija zmanjša tveganja pristranskosti ter izboljša pozitiven vpliv tehnologije AI.

The source of the article is from the blog xn--campiahoy-p6a.es

Privacy policy
Contact