U brzo evoluirajućem svijetu umjetne inteligencije (AI), nedavni incident koji uključuje chatbot Gemini tvrtke Google istaknuo je izazove u eliminiranju kulturnih predrasuda u tehnološkim alatima. Chatbot je generirao slike crnih i azijskih nacističkih vojnika, što je izazvalo bijes i istaknulo potencijalne posljedice nekontrolirane moći AI.
Izvršni direktor Googlea Sundar Pichai osudio je pogreške napravljene od strane aplikacije Gemini AI, priznajući da su proizvedene slike povijesno netočne i promovirajući privremenu suspensiju generiranja slika ljudi. Javna reakcija na ovaj incident služi kao podsjetnik na ogroman utjecaj nekoliko tehnoloških divova nad AI platformama koje imaju potencijal preoblikovati društvo.
Joshua Weaver, odvjetnik i poduzetnik u tehnološkom sektoru, opisuje akcije Googla kao previše “budne”, sugerirajući da je tvrtka otišla predaleko u pokušaju prioritetizacije inkluzije i raznolikosti. Dok je Google brzo ispravio svoje greške, Charlie Burgoyne, izvršni direktor laboratorija za primijenjenu znanost Valkyrie, vjeruje da takva rješenja samo dotiču površinski problem, propuštajući riješiti temeljni problem.
Google, zajedno s drugim tehnološkim divovima, sada je uključen u natjecanje u AI s Microsoftom, OpenAI-jem i Anthropic-om. Ova intenzivirana konkurencija ostavlja malo prostora tvrtkama da usavrše svoje proizvode tijekom duljeg vremenskog razdoblja. Greške napravljene u težnji za kulturnom osjetljivošću postaju važne točke sukoba, posebno u politički podijeljenoj klimi u Sjedinjenim Američkim Državama.
Kako AI sve više generira ogromne količine informacija, pitanje tko kontrolira AI sustave postaje ključno. Potencijal za dezinformacije i amplifikaciju predrasuda postavlja pitanja o utjecaju onih koji kontroliraju AI sustave. Nedavni propust potaknuo je stručnjake da ispituju razinu kontrole koju korisnici imaju nad AI alatima i informacijama koje proizvode.
Karen Palmer, nagrađivana kreatorica mješovite stvarnosti, spekulira o budućnosti u kojoj AI može utjecati na važne odluke, poput preusmjeravanja osoba s nepodmirenim prekršajima prema policijskoj stanici umjesto njihovih namjeravanih odredišta. Obuka AI modela uvelike se oslanja na postojeće podatke, koji inherentno sadrže predrasude, društvene nejednakosti i dezinformacije.
Inženjeri koji se trude da uravnoteže algoritme da odražavaju ljudsku raznolikost suočavaju se s zahtjevnim izazovom. Tehnološki odvjetnik Alex Shahrestani ističe teškoće u otkrivanju i rješavanju predrasuda, jer su čak i dobro namjerni inženjeri pod utjecajem vlastitih životnih iskustava i podsvjesnih predrasuda. Nadalje, nedostatak transparentnosti oko unutarnjih mehanizama generativnih AI modela pogoršava problem, sprječavajući korisnike da prepoznaju skrivene predrasude.
Stručnjaci i aktivisti pozivaju na veću raznolikost unutar timova za razvoj AI i veću transparentnost u radu AI alata. Bitno je uključiti perspektive iz raznih zajednica diljem svijeta i izgraditi algoritme koji etički koriste njihove podatke. Ovaj pristup, koji koristi Indigenous AI i slične organizacije, suprotstavlja se strukturi odozgo prema dolje koju se primjećuje u tehnološkoj industriji i promovira inkluzivan i kulturno osjetljiv razvoj AI.
Incident s chatbotom Gemini tvrtke Google trebao bi poslužiti kao alarm za tehnološku industriju da prioritetizira kulturnu osjetljivost i raznolikost u AI alatima. Rješavanjem ovih izazova direktno i uključivanjem širokog spektra perspektiva tijekom razvojnog procesa, industrija može smanjiti rizike predrasuda i poboljšati pozitivan utjecaj tehnologije AI.
FAQ
The source of the article is from the blog anexartiti.gr