Organizācijas izmanto AI, lai manipulētu sabiedrības viedokli, OpenAI ziņo

OpenAI, kurš ir radījis sarunu AI programmu zināmu kā ChatGPT, ir identificējis vairākas organizācijas, kas bāzējas Krievijā, Ķīnā un citur, kuras pēc ziņām izmanto AI, lai ietekmētu sabiedrības domas.
Šīs grupas, kuras dod priekšroku saglabāt savas identitātes konfidencialitāti, ir izmantojušas AI radītu tekstu un sociālo mediju kontu izveidi, kā arī AI lietojumu programmēšanas uzdevumos. Savās darbībās tās ir fokusējušās uz jutīgiem ģeopolitiskiem jautājumiem, ieskaitot Krievijas iebrukumu Ukrainā, konfliktus Gazā un Amerikas politiku.

No šīm grupām īpaši aktīvi ir bijusi Ķīnā bāzēta organizācija, radot saturu, kas kritizē strīdīgo ūdens attīrīšanas izplūdi no Japānas Fukushima Daiichi kodolspēkstacijas. Tās darbības sastāvēja arī no japāņu valodas ziņu publicēšanas tiešsaistē. Tomēr ziņas liecina, ka šīs AI veidotās vēstules nav ieguvušas būtisku skatītāju skaitu sociālajos medijos.

Turklāt OpenAI norādīja, ka ir bijuši gadījumi, kad mēģinājumi radīt propagandīstiskas bildes ar AI rīkiem tika atsaukti ar programmatūras noraidījumu, uzsverot etisko garantiju sistēmas, kas jau ir ieviestas, lai novērstu ļaunprātīgu izmantošanu. OpenAI ir publicējis ziņojumu, kurā detalizēti tiek aprakstītas šīs draudzīgas darbības, uzsverot svarīgumu uzraudzēt un regulēt AI izmantošanu, lai novērstu tādas manipulatīvas prakses.

Svarīgums un nozīmība AI manipulēšanā sabiedrības domās:
AI izmantošana sabiedrības domu manipulēšanā ir būtisks jautājums, jo tā var ietekmēt politiskās vēlēšanas, mainīt sabiedrības noskaņojumu par svarīgiem jautājumiem un pat piesaistīt konfliktus starp atšķirīgām grupām. Mākslīgā intelekta rīki, piemēram, tie, kas izstrādāti, lai radītu deepfakes vai rakstītu pārliecinošus tekstus, var izplatīt dezinformāciju masu mērogā un ātrumā, kas pārsniedz cilvēka spējas.

Galvenie jautājumi un atbilžu:
– Kādus līdzekļus organizācijas izmanto, lai manipulētu sabiedrības domas ar AI?
Organizācijas izmanto AI, lai radītu pārliecinošus tekstus, viltotas reālistiskas attēlus vai video (deepfakes), izveidotu viltīgus sociālā medija profilus un automatizētu dezinformācijas izplatīšanu.

– Kā OpenAI novērš savu rīku izmantošanu propagandai?
OpenAI ievies etiskus garantijas un uzraudzības mehānismus, kas spēj atklāt un novērst programmatūras radītu saturu, kas paredzēts propagandai vai dezinformācijai.

– Kādas grūtības saistītas ar AI izmantojuma regulēšanu manipulācijām?
AI rīku un tehnoloģiju izplatība starptautiskos robežu padara sarežģītu efektīvu regulējumu. Turklāt AI pilnveidojamās iespējas var pārsniegt efektīvu pārvaldības pamatu izveidošanu.

Galvenais izaicinājums un kontroverses:
Galvenās grūtības, risinot AI izmantošanu sabiedrības domās manipulēšanai, ietver zināmām ļaunprātīgu aktivitāšu identificēšanu un piešķiršanas, jo daudzi paslēpj savas identitātes vai darbojas no ārzemēm. Turklāt notiek diskusija par līdzsvaru starp pašizpausmes brīvību un vajadzību ierobežot nepatiesu informāciju, kā arī par tehnikas uzņēmumu lomu attiecībā pret valstisku iestāžu regulēšanas jautājumiem.

AI priekšrocības:
– Ļauj efektīvu datu apstrādi un analīzi, lai izprastu sabiedrības domu tendences.
– Veicina ātru informācijas izplatīšanu par likumīgām ziņām vai steidzamības brīdinājumiem.

AI trūkumi:
– AI var tikt izmantots, lai pastiprinātu nepatiesas narratīvu un izveidotu sarežģītas dezinformācijas kampaņas.
– Rod bažas par uzticības medijos un demokrātiskās iestādēs zudumu.

Regulatīvie centieni un etiskās apsvērumi:
AI attīstība ir licis sākt diskusijas par etisko izmantošanu un regulēšanas pasākumiem, lai novērstu tās ļaunprātīgas izmantošanas politiskajā arenā. Organizācijas un valdības visā pasaulē tagad ir informētākas un palielina centienus attīstīt politikas, lai risinātu ētiskos izaicinājumus, ko rada AI.

Ja vēlaties lasīt vairāk par AI ietekmi un kopējo sabiedrības ietekmi, jūs varat izpētī šos saites:
– OpenAI
– Apvienoto Nāciju Digitāla Sadarbība
– Pasaules Veselības organizācija (sabalansētai informācijai par veselības jautājumiem)

Privacy policy
Contact