Pogreške umjetne inteligencije tvrtke Google zahtijevaju strože mjere

Neizvjesni odgovori umjetne inteligencije postavljaju nove izazove

Nedavna implementacija Google-ova alata za pregled vođen umjetnom inteligencijom s ciljem pružanja trenutnih odgovora u rezultatima pretraživanja generirala je neočekivane, maštovite odgovore poput tvrdnje o postojanju mjesečevih mačaka. Primjerice, kada su novinari iz Associated Press-a pitali jesu li mačke bile na Mjesecu, Google-ova AI pretraga vratila je maštovit odgovor koji sugerira da su astronauti doista susreli i čak pomagali mačjim prijateljima na mjesecu, maštovito pripisujući povijesne riječi Neila Armstronga “mali korak za mačku”.

Stručnjaci izražavaju zabrinutost zbog AI sustava koji crpe iz dvojbenih izvora, što dovodi do širenja lažnih informacija. Melodie Mitchell, istraživačica iz SAD-a, osobno je iskusila zamke Google-ove AI kada je tražila muslimanske predsjednike Sjedinjenih Država. Google je s povjerenjem odgovorio s netočnim informacijama, tvrdeći pogrešno da je Barack Obama jedini muslimanski predsjednik. Mitchell je istaknula da je AI potkrijepio svoju netočnu tvrdnju s referencom na znanstvenu publikaciju koja nije potvrdila dezinformaciju već je samo spomenula teoriju zavjere.

Pogreške AI-a ne uključuju samo humorne pogreške, već i potencijalno štetne laži. Kritični hitni upiti postavljeni od strane korisnika pod stresom mogu ostati neprovjereni zbog stresa i hitnosti, čime se situacija može pogoršati zbog povjerenja u informacije na prvi pogled. Osim toga, raste zabrinutost da ove neuronske mreže ojačavaju opasne pristranosti, s problematičnim sadržajem koji se otkriva u skupovima podataka korištenim za obuku AI.

Google je priznao važnost brze akcije u ispravljanju ovih pogrešaka i koristi ova iskustva za buduća poboljšanja. Hitnost da se ostane ispred u konkurentnom okruženju, poput američkih razvojnih tvrtki OpenAI i Perplexity AI, možda je doprinijela problemima s novom značajkom. Posebno je zanimljivo da je Perplexity AI pokazala da pruža preciznije odgovore od Google-a na nekoliko upita.

Važnost odgovornog nadzora nad AI-em

Kako tehnologija nastavlja evoluirati, AI sustavi poput Google-ovog sve se više pouzdavaju u dostavljanje informacija. Međutim, ova odgovornost dolazi s inherentnim rizicima kada se točnost kompromitira. Iz ove situacije proizlaze dva glavna pitanja:

1. Kako osigurati da informacije koje pruža AI budu točne?
2. Koje mjere treba poduzeti kako bi se spriječilo širenje dezinformacija?

Izazovi povezani s temom grešaka AI i dezinformacija uključuju osiguravanje pouzdanosti izvora s kojih AI sustavi crpe informacije, sprječavanje jačanja društvenih pristranosti te brzu ispravu pogrešaka kada se dogode.

Borba protiv dezinformacija i pristranosti

Kontroverze u ovom polju često uključuju odlučivanje tko je odgovoran za AI-generiranu dezinformaciju i kako regulirati AI kako bi se spriječili takvi događaji. Razvoj sofisticiranijih algoritama za provjeru informacija i korištenje pouzdanih podataka dio su rješenja. Nadalje, važno je adresirati ugrađene pristranosti u skupovima podataka za obuku kako bi se osigurala pravednost i nepristranost izlaza AI-a.

Prednosti alata za pregled vođenih AI-om su višestruke. Pružaju brz pristup informacijama, pomažu u rješavanju brojnih upita istovremeno i eliminiraju neke ljudske pogreške. Međutim, nedostaci su jednako značajni. Oni uključuju dostavu netočnih informacija, potencijalno ojačavanje pristranosti te uzrokuju konfuziju ili štetu ako se oslanjaju za kritične odluke.

U zaključku, iako je potencijal AI-a ogroman, jednako tako je potrebna rigorozna kontrola, usavršavanje te etičko promišljanje. Za više informacija o umjetnoj inteligenciji i njezinom napretku, sljedeći linkovi mogu biti od interesa:
OpenAI
Google

Ključno je da vodeće tvrtke i regulatori zajedno doprinesu razvoju standarda i okvira za odgovornu primjenu AI-a kako bi se izbjeglo podrivanje javnog povjerenja u ovu moćnu tehnologiju.

Privacy policy
Contact