Umjetna inteligencija Chatbots i širenje dezinformacija

Nedavna studija otkrila je da AI chatboti poput ChatGPT-a, Groka, Geminija i drugih šire dezinformacije koje pogoduju Rusiji. Rezultati ukazuju na zabrinjavajući trend u kojem laži ne samo da se generiraju pomoću platformi umjetne inteligencije već se i šire i ojačavaju.

Prema istraživanju koje je provela NewsGuard, vodeći AI modeli poput ChatGPT-a tvrtke OpenAI šire pro-rusku dezinformaciju. Usred rastućih briga o širenju lažnih informacija putem AI, posebno tijekom globalnih izbora poput nadolazećih izbora 2024. godine, korisnici koji se oslanjaju na chatbotove za pouzdane informacije mogu nehotice naići na dezinformacije.

Studija je pokazala da, iako postoje zabrinutosti zbog dezinformacija koje pogone AI, postoji ograničeni broj podataka o tome koliko se lažne informacije koje šire chatbotovi mogu ponavljati i dokazati. Kada su unesene 57 upita u 10 chatbota, utvrđeno je da su širili pro-rusku propagandu u 32% slučajeva.

Važno je napomenuti da su chatbotovima predstavljene izmišljene priče koje potječu od Johna Marka Dougan, američkog bjegunca poznatog po stvaranju dezinformacija u Moskvi. Među chatbotovima koji su bili predmet istraživanja bili su ChatGPT-4, You.com-ov Smart Assistant, Grok, Inflection, Mistral, Microsoftov Copilot, Meta AI, Anthropic-ov Claude, Google Gemini i Perplexity.

Iako performanse pojedinačnih chatbota nisu detaljno razrađene, od 570 odgovora, 152 sadržavala su otvorenu dezinformaciju, 29 je ponovilo lažne tvrdnje s napomenom, a 389 nije sadržavalo lažne informacije bilo odbijajući odgovoriti (144) ili opovrgavajući tvrdnje (245).

Ovi rezultati naglašavaju hitnu potrebu regulatora širom svijeta da se pozabave potencijalnom štetom AI u širenju dezinformacija i pristranosti. NewsGuard je podnio svoje istraživanje Instituto za sigurnost AI Nacionalnog instituta za standarde i tehnologiju u Sjedinjenim Američkim Državama i Europskoj komisiji radi razmatranja kao dio nastojanja da zaštiti korisnike od dezinformacija omogućenih AI tehnologijama.

Dodatne relevantne činjenice:
1. AI chatboti sve više se koriste za različite svrhe osim samo širenja dezinformacija, uključujući klijentsku podršku, podršku za mentalno zdravlje i obrazovanje.
2. Tehnologija iza AI chatbota nastavlja se brzo razvijati, s novim modelima i algoritmima koji se razvijaju kako bi se poboljšale mogućnosti razgovora i točnost.
3. Neke AI chatboti su posebno programirani kako bi se borili protiv dezinformacija pružajući usluge provjere činjenica i ispravljanja netočnih tvrdnji u stvarnom vremenu.

Ključna pitanja:
1. Kako osigurati odgovornost i transparentnost u razvoju i implementaciji AI chatbota radi sprječavanja širenja dezinformacija?
2. Koje mjere se mogu poduzeti kako bi se korisnici educirali o rizicima oslanjanja na AI chatbote za informacije i potaknulo kritičko razmišljanje?
3. Trebaju li biti uspostavljeni regulatorni okviri za upravljanje korištenjem AI chatbota i ublažiti rizike širenja dezinformacija?

Prednosti:
1. AI chatboti mogu pružiti brze i pristupačne informacije korisnicima, unapređujući praktičnost i učinkovitost.
2. Mogu se koristiti za proširenje operacija korisničke podrške i poboljšanje vremena odgovora.
3. AI chatboti imaju potencijal personalizirati interakcije i pružiti prilagođene preporuke korisnicima prema njihovim preferencijama.

Mane:
1. Bez odgovarajućeg nadzora i regulacije, AI chatboti mogu pojačati širenje dezinformacija i doprinijeti urušavanju povjerenja u online sadržaj.
2. Chatboti mogu nedostajati sposobnost razlikovanja između točnih i netočnih informacija, što dovodi do nenamjernog širenja netočnosti.
3. Oslanjanje na AI chatbote za informacije može potencijalno rezultirati time da korisnici postanu podložniji manipulaciji i utjecaju od strane zlonamjernih aktera.

Povezane poveznice:
1. www.economist.com
2. www.wired.com

The source of the article is from the blog yanoticias.es

Privacy policy
Contact