Jaunās mākslīgā intelekta attēlu veidošanas rīku celšanas raizes par vēlēšanu dezinformāciju

Mākslīgā intelekta (AI) piedzīvota attēlu radīšanas rīki, ko izstrādājušas uzņēmumi kā OpenAI un Microsoft, var veicināt vēlēšanu dezinformāciju, neskatoties uz platformu politikām pret maldinoša satura radīšanu, atklājot ziņojumu, ko sagatavojis Center for Countering Digital Hate (CCDH). Lai gan šie rīki mērķē uz reālistisku attēlu radīšanu no teksta norādēm, CCDH izmantoja generatīvos AI rīkus, lai radītu dezinformējošus attēlus, piemēram, ASV prezidentu Džo Baidenu melnojamā stāvoklī slimnīcas gultā un vēlēšanu darbiniekus, kas iznīcina vēlēšanu mašīnas. Tas rada bažas par viltus apgalvojumu izplatīšanos un vēlēšanu integritāti.

CCDH testēja vairākus AI rīkus, tostarp OpenAI ChatGPT Plus, Microsoft Image Creator, Midjourney un Stability AI DreamStudio. Pētījums atklāja, ka AI rīki radīja attēlus 41% no pētnieku testiem, galvenokārt tad, kad tika lūgts attēlot attēlus, kas attiecas uz vēlēšanu krāpšanu. Tomēr rīki kā ChatGPT Plus un Image Creator veiksmīgi bloķēja lūgumus par konkrētu kandidātu attēliem. Savukārt Midjourney sniedza sliktākos rezultātus, radot dezinformējošus attēlus 65% no testiem.

Ziņojumā arī tika atzīmēts, ka daži Midjourney attēli ir publiski pieejami un ir pierādījumi, ka cilvēki izmanto šo rīku, lai radītu politiski maldinošu saturu. Midjourney dibinātājs Deivids Holzs minēja, ka saistībā ar gaidāmajām ASV vēlēšanām drīzumā tiks veiktas jauninājumi, un pagājušajā gadā radītie attēli neparāda šī rīka pašreizējās moderācijas prakses. Stability AI ir atjauninājusi savas politikas, lai aizliegtu krāpšanu un dezinformācijas radīšanu vai veicināšanu.

Lai gan uzņēmumi kā OpenAI strādā pie ābuse izslēgšanas savos AI rīkos, pastāv bažas par šo rīku iespējamu izmantošanu ar vēlēšanām saistītu dezinformācijas kampaņu vajadzībām. Būtiski, lai tehnoloģiju uzņēmumi prioritizētu vēlēšanu integritāti un pastāvīgi uzlabotu savas moderācijas prakses, lai cīnītos pret maldinoša saturu izplatīšanu.

The source of the article is from the blog combopop.com.br

Privacy policy
Contact