Organizācijas izmanto AI, lai manipulētu sabiedrības viedokli, ziņo OpenAI.

OpenAI, kas ir sarunu AI programmas, pazīstamas kā ChatGPT, radītājs, ir identificējis vairākas organizācijas Krievijā, Ķīnā un citās reģionos, kas, pēc ziņām, izmanto AI, lai ietekmētu sabiedrisko domu.

Šīs grupas, kurās viņi dod priekšroku, lai identitāti turētu konfidenciālu, ir izmantojušas AI radītu tekstu un sociālo mediju kontu izveidi, kā arī izmantojot AI programmēšanas uzdevumos. Savi darbībās viņi ir koncentrējušies uz jutīgiem ģeopolitiskiem jautājumiem, ieskaitot Krievijas iebrukumu Ukrainā, konfliktus Gazā un Amerikas politiku.

Starp šiem, Ķīnas bāzes organizācija ir bijusi īpaši aktīva, radot saturu, kas kritizē kontroverso informācijas nodošanu par apstrādātu ūdeni no Japānas Fukushima Daiichi kodolspēkstacijas. Operācija tika paplašināta arī līdz japāņu valodas ierakstiem tiešsaistē. Tomēr ziņas liecina, ka šie AI radītie ziņojumi nav guvuši lielu skatītāju skaitu sociālo mediju platformās.

Turklāt OpenAI atklāja, ka bija gadījumi, kad mēģinājumi ģenerēt propagandistiskas attēlus ar AI rīkiem tika noraidīti ar programmatūras palīdzību, uzsvērot etiķetes aizsardzību, lai novērstu ļaunprātīgu izmantošanu. OpenAI ir publicējis ziņojumu par šiem draudiem tajā pašā dienā, kad atklājumi tika paziņoti, uzsverot AI izmantošanas uzraudzības un regulēšanas svarīgumu, lai novērstu šādas manipulatīvas prakses.

Nozīme un aktualitāte AI manipulēšanai sabiedrisko domu:

AI izmantošana sabiedrās domas manipulēšanā ir būtisks jautājums, jo tas var ietekmēt politiskās vēlēšanas, mainīt sabiedrības noskaņojumu par svarīgiem jautājumiem un pat provocēt konfliktus starp dažādām grupām. Mākslīgā inteliģence, piemēram, tādas, kas izstrādātas, lai radītu deepfakes vai rakstītu pārliecinošus tekstus, var izplatīt dezinformāciju masu mērogā un ar ātrumu, kas pārsniedz cilvēku spējas.

Galvenie jautājumi un atbildes:
Kādus līdzekļus organizācijas izmanto, lai manipulētu sabiedrisko domu ar AI?
Organizācijas izmanto AI, lai radītu pārliecinošu tekstu, izgatavotu reālistiskus attēlus vai video (deepfakes), izveidotu viltus sociālās mediju profilih un automatizētu dezinformācijas izplatīšanu.

Kā OpenAI novērš savu rīku izmantošanu propagandā?
OpenAI ievieš etiķetes aizsardzību un uzraudzības mehānismus, kas var atklāt un novērst programmā radītu saturu, kas domāts propagandai vai dezinformācijai.

Kādas ir problēmas, kas saistītas ar regulēšanu AI izmantošanai manipulācijās?
AI instrumentu un tehnoloģiju izplatīšanās starptautiskajā līmenī padara izpildes noteikumu ieviešanu sarežģītu. Turklāt AI attīstīgās spējas var pārspēt efektīvu pārvaldības pamatstruktūru izveidi.

Galvenās izaicinājumi un nesaskaņas:

Galvenās izaicinājumos, kas ir saistīti ar AI izmantošanu sabiedrisko domas manipulēšanai, ietilpst ļaunprātīgu darbību identificēšana un nosaukšana konkrētiem darbiniekiem, jo daudzi paslēpj savus identitātes vai strādā no ārzemēm. Turklāt pastāv strīds par līdzsvaru starp pašizpausmes brīvību un vajadzību ierobežot nepatiesu informāciju, kā arī tehnoloģiju uzņēmumu loma pret valsts autoritāti saturu regulēšanā.

AI priekšrocības:
– Nodrošina efektīvu datu apstrādi un analīzi, lai saprastu sabiedrības domu tendences.
– Veicina ātru informācijas izplatīšanu par likumīgām ziņām vai ārkārtas brīdinājumiem.

AI trūkumi:
– AI var tikt izmantots, lai pastiprinātu viltus naratīvus un radītu sarežģītas dezinformācijas kampaņas.
– Rada bažas par uzticības eroziju masu medijos un demokrātiskajās iestādēs.

Regulatīvie centieni un ētiskie apsvērumi:
AI attīstības rezultātā ir radītas diskusijas par ētisku izmantošanu un regulatīviem pasākumiem, lai novērstu tā ļaunprātīgu izmantošanu politisko jomā. Organizācijas un valdības visā pasaulē tagad ir vairāk informētas un strādā pie politiku izstrādes, lai risinātu ētiskos izaicinājumus, ar ko saskaras AI.

Ja vēlaties lasīt vairāk par AI sekām un tā kopējo ietekmi uz sabiedrību, jūs varat izpētīt šos saites:
OpenAI
Apvienoto Nāciju Digitālā sadarbība
Pasaules Veselības organizācija (veselības saistītās AI problēmas)

Privacy policy
Contact