Važnost kulturne osjetljivosti u tehnološkim alatima za AI

U brzo evoluirajućem svijetu umjetne inteligencije (AI), nedavni incident koji uključuje chatbot Gemini tvrtke Google istaknuo je izazove u eliminiranju kulturnih predrasuda u tehnološkim alatima. Chatbot je generirao slike crnih i azijskih nacističkih vojnika, što je izazvalo bijes i istaknulo potencijalne posljedice nekontrolirane moći AI.

Izvršni direktor Googlea Sundar Pichai osudio je pogreške napravljene od strane aplikacije Gemini AI, priznajući da su proizvedene slike povijesno netočne i promovirajući privremenu ​​suspensiju generiranja slika ljudi. Javna reakcija na ovaj incident služi kao podsjetnik na ogroman utjecaj nekoliko tehnoloških divova nad AI platformama koje imaju potencijal preoblikovati društvo.

Joshua Weaver, odvjetnik i poduzetnik u tehnološkom sektoru, opisuje akcije Googla kao previše “budne”, sugerirajući da je tvrtka otišla predaleko u pokušaju prioritetizacije inkluzije i raznolikosti. Dok je Google brzo ispravio svoje greške, Charlie Burgoyne, izvršni direktor laboratorija za primijenjenu znanost Valkyrie, vjeruje da takva rješenja samo dotiču površinski problem, propuštajući riješiti temeljni problem.

Google, zajedno s drugim tehnološkim divovima, sada je uključen u natjecanje u AI s Microsoftom, OpenAI-jem i Anthropic-om. Ova intenzivirana konkurencija ostavlja malo prostora tvrtkama da usavrše svoje proizvode tijekom duljeg vremenskog razdoblja. Greške napravljene u težnji za kulturnom osjetljivošću postaju važne točke sukoba, posebno u politički podijeljenoj klimi u Sjedinjenim Američkim Državama.

Kako AI sve više generira ogromne količine informacija, pitanje tko kontrolira AI sustave postaje ključno. Potencijal za dezinformacije i amplifikaciju predrasuda postavlja pitanja o utjecaju onih koji kontroliraju AI sustave. Nedavni propust potaknuo je stručnjake da ispituju razinu kontrole koju korisnici imaju nad AI alatima i informacijama koje proizvode.

Karen Palmer, nagrađivana kreatorica mješovite stvarnosti, spekulira o budućnosti u kojoj AI može utjecati na važne odluke, poput preusmjeravanja osoba s nepodmirenim prekršajima prema policijskoj stanici umjesto njihovih namjeravanih odredišta. Obuka AI modela uvelike se oslanja na postojeće podatke, koji inherentno sadrže predrasude, društvene nejednakosti i dezinformacije.

Inženjeri koji se trude da uravnoteže algoritme da odražavaju ljudsku raznolikost suočavaju se s zahtjevnim izazovom. Tehnološki odvjetnik Alex Shahrestani ističe teškoće u otkrivanju i rješavanju predrasuda, jer su čak i dobro namjerni inženjeri pod utjecajem vlastitih životnih iskustava i podsvjesnih predrasuda. Nadalje, nedostatak transparentnosti oko unutarnjih mehanizama generativnih AI modela pogoršava problem, sprječavajući korisnike da prepoznaju skrivene predrasude.

Stručnjaci i aktivisti pozivaju na veću raznolikost unutar timova za razvoj AI i veću transparentnost u radu AI alata. Bitno je uključiti perspektive iz raznih zajednica diljem svijeta i izgraditi algoritme koji etički koriste njihove podatke. Ovaj pristup, koji koristi Indigenous AI i slične organizacije, suprotstavlja se strukturi odozgo prema dolje koju se primjećuje u tehnološkoj industriji i promovira inkluzivan i kulturno osjetljiv razvoj AI.

Incident s chatbotom Gemini tvrtke Google trebao bi poslužiti kao alarm za tehnološku industriju da prioritetizira kulturnu osjetljivost i raznolikost u AI alatima. Rješavanjem ovih izazova direktno i uključivanjem širokog spektra perspektiva tijekom razvojnog procesa, industrija može smanjiti rizike predrasuda i poboljšati pozitivan utjecaj tehnologije AI.

FAQ

The source of the article is from the blog anexartiti.gr

Privacy policy
Contact