AI i tehnološki divovi: Pouke iz incidenta Google Gemini

Umjetna inteligencija (AI) postala je neizostavan dio naših života, s divovima tehnologije poput Googlea koji prednjače u razvoju i usavršavanju platformi AI. Međutim, nedavni događaji su osvijetlili potencijalne opasnosti i zamke povezane s AI. Skandal oko Googleovog chatbota Gemini, koji je generirao povijesno netočne slike crnih i azijskih nacističkih vojnika, služi kao upozorenje o moći AI i odgovornosti koja s njom dolazi.

Kontroverza oko Googleovog chatbota Gemini na nedavnom tehnološkom festivalu u Austinu, Teksas, istaknula je značajan utjecaj koji tehnološki divovi imaju na AI platforme. Greške aplikacije, koje su privremeno zaustavile korisnike u stvaranju slika ljudi zbog generiranja etnički raznolikih nacističkih trupa, izazvale su široku kritiku i ismijavanje na društvenim mrežama. Izvršni direktor Googlea, Sundar Pichai, osudio je ove greške kao “potpuno neprihvatljive”.

I dok je Google brzo ispravio problem, incident je podigao šira pitanja o kontroli kojom raspolažu nekoliko kompanija nad AI platformama koje su promijenile različite aspekte naših života. Joshua Weaver, odvjetnik i tehnološki poduzetnik, okarakterizirao je odgovor Googlea na nepogodu kao prekomjerni “prosvećeni” pokušaj naglašavanja uključivanja i raznolikosti. Charlie Burgoyne, izvršni direktor laboratorija za primijenjenu znanost Valkyrie, usporedio je napore Googlea s pokušajem stavljanja flastera na prostrijelnu ranu, ističući temeljni problem koji ostaje neadresiran.

Ovaj incident ističe potrebu za sveobuhvatnim testiranjem i usavršavanjem u razvoju AI platformi. Brzi napredak AI tehnologija, zajedno s oštrim natjecanjem među tehnološkim divovima poput Googlea, Microsofta, OpenAI i Anthropic, ostavio je malo prostora za grešku. Weaver je primijetio da se ove kompanije kreću brže nego što znaju kako se kretati, stvarajući napetu atmosferu u kojoj su greške vjerojatnije.

Sam incident, iako značajan, također postavlja šira pitanja o ulozi AI u društvu. Weaver tvrdi da bi ove greške trebale poslužiti kao ishodišta za rasprave o tome koliko kontrolu nad informacijama imaju korisnici AI-a. U sljedećem desetljeću, informacije i dezinformacije generirane AI-em mogle bi nadmašiti one generirane od strane ljudi, što ističe potrebu za snažnim mjerama zaštite i odgovornim razvojem AI.

Jedan ključni aspekt AI-a koji je istaknut incidentom Gemini jest pitanje pristranosti. AI modeli se treniraju na ogromnim količinama podataka, i ako ti podaci nose kulturnu pristranost, AI može prenositi i čak pojačati te pristranosti. Inženjeri Googlea pokušali su riješiti taj problem rekalibriranjem algoritama kako bi odražavali ljudsku raznolikost. Međutim, njihovi napori su se obili o glavu, otkrivajući složenu prirodu rješavanja pristranosti u AI.

Stručnjaci tvrde da je rješavanje pristranosti u AI složen i izazovan zadatak. Tehnološki odvjetnik Alex Shahrestani ističe teškoće u identificiranju i ispravljanju pristranosti u AI algoritmima, jer sami inženjeri mogu nesvjesno unijeti svoje pristranosti u proces obuke. Bitka protiv pristranosti u AI dodatno je otežana nedostatkom transparentnosti oko njenih unutarnjih mehanizama. Velike tehnološke kompanije često zadržavaju metodologiju iza AI algoritama skrivenu, čime korisnici nisu u mogućnosti identificirati i ispraviti bilo kakve skrivene pristranosti.

Kako bi se prevladale ove izazovi, postoji rastući pokret koji zahtijeva veću raznolikost unutar timova za razvoj AI-a i povećanu transparentnost u AI algoritmima. Stručnjaci i aktivisti tvrde da su različite perspektive i iskustva ključni u izgradnji AI sustava koji su pravedni i nepristrani. Jason Lewis, iz Centra za resurse o indigenim budućnostima, zagovara uključivanje marginaliziranih zajednica u dizajn i razvoj AI algoritama kako bi se osigurala etička upotreba podataka i predstavljanje raznolikih perspektiva.

Incident Google Gemini služi kao opomena za tehnološke divove i društvo u cjelini. Ističe potrebu za odgovornim razvojem AI-a, sveobuhvatnim testiranjem i rješavanjem pristranosti unutar AI algoritama. Prihvaćanjem raznolikosti i transparentnosti možemo iskoristiti snagu AI-a kako bismo stvorili pravedniju i inkluzivniju budućnost.

Često postavljana pitanja (FAQ)

The source of the article is from the blog cheap-sound.com

Privacy policy
Contact