Ķīnas ģenerētais AI saturs rada draudus globālajiem vēlēšanām.

Avi gadījuma atklājumā Microsoft brīdinājis, ka Ķīna gatavojas traucēt gaidāmos vēlēšanas Indijā, Amerikas Savienotajās Valstīs un Dienvidkorejā, izmantojot mākslīgā intelekta (AI) ģenerētu saturu. Šis brīdinājums nāk pēc tam, kad Ķīna veica pārbaudes laika gaitā Taivānas prezidenta vēlēšanās, kurās tika izmantots AI, lai ietekmētu vēlēšanu rezultātu.

Ar vismaz 64 valstīm, kā arī Eiropas Savienību, kurām plānots rīkot valstiskas vēlēšanas, kas aptver gandrīz pusi no pasaules iedzīvotājiem, Microsoft draudu inteliģences komanda ir identificējusi Ķīnas valdības atbalstītos hakeru grupējumus, kā arī Ziemeļkorejas iesaistīšanos kā būtiskus draudus vairākām 2024. gada vēlēšanām. Šo grupu galvenais mērķis ir izmantot AI ģenerētu saturu sociālo plašsaziņas līdzekļu platformās, lai ietekmētu sabiedriskās domas viedokli par viņu interesēm šo vēlēšanu laikā.

AI tehnoloģijas izmantošana politiskajās reklāmās rada būtisku draudu izšķobības un viltus saturam, ieskaitot dziļos viltus un izgudrotus notikumus. Šīs taktikas mērķis ir maldināt sabiedrību par kandidātu izteikumiem, viņu nostājām par dažādām jautājumu jomām un pat noteiktu notikumu autentiskumu. Ja šie manipulējošie mēģinājumi paliek neapstrīdēti, tie var apdraudēt vēlētāju spēju pieņemt informētus lēmumus.

Lai gan pašreizējā AI ģenerētā satura ietekme ir relatīvi zema, Microsoft brīdina par Ķīnas veiktajiem eksperimentiem, kuri ar laiku varētu kļūt efektīvāki. Ķīnas iepriekšējais mēģinājums ietekmēt Taivānas vēlēšanas ietvēra AI ģenerētas dezinformācijas izplatīšanu, atzīmējot pirmo gadījumu, kad valdības atbalstīta organizācija izmantoja šādas taktikas ārvalstu vēlēšanās. Taivānas vēlēšanu laikā Pekinas atbalstīta grupa, pazīstama kā Storm 1376, izplatīja AI ģenerētu saturu, ieskaitot viltus audio atbalstus un memus, ar mērķi diskreditēt noteiktus kandidātus un ietekmēt vēlētāju uztveri. Līdzīgas taktikas ir izmantojušas arī Irāna, ieskaitot AI ģenerēto TV ziņu pārstāvjus.

Ķīna ir veikusi ietekmes kampaņas arī Amerikas Savienotajās Valstīs, izmantojot sociālo plašsaziņas līdzekļus, lai uzdotu domstarpīgas jautājumus un apkopotu informāciju par svarīgiem vēlēšanu demogrāfijas aspektiem. Lai gan ir maz pierādījumu par to, ka šie centieni ir bijuši veiksmīgi viedokļa mainīšanā, ir noticis palielināts Ķīnas AI ģenerētā satura izmantošana, lai mēģinātu ietekmēt un sew izšķelšanu par dažādiem jautājumiem, ieskaitot pēdējos notikumus, piemēram, vilcienu izritināšanu Kentuki, Maui mežu ugunsgrēku, Japānas kodolatkritumu apsaimniekošanu, narkotiku lietošanu ASV, imigrācijas politiku un rases saspringumu valstī.

AI ģenerētā satura drauds pārsniedz Amerikas Savienotās Valstis un Taivānu. Tuvojoties 2024. gada Newhempšīras Demokrātiskajām pamatvēlēšanām, AI ģenerēta telefona zvani imitēja prezidenta Džoa Bidena balsi un ieteica vēlētājiem nepiedalīties balsošanā, nepamatoti iesaucoties tajā, ka pats prezidents Bidens esot atbalstījis šo direktīvu. Neraugoties uz to, ka nav pierādījumu par Ķīnas iesaisti šajā konkrētajā gadījumā, tas atspoguļo, kā AI rada tiešu draudu demokrātiskajām praksēm.

Papkārt Indijas vispārējām vēlēšanām, Indijas Vēlēšanu komisija (ECI) jau ir sniegusi vadlīnijas un protokolus, lai ātri identificētu un reaģētu uz viltus informāciju un dezinformāciju. OpenAI, ChatGPT izstrādātājs, arī ir tikies ar ICI un izklāstījis veiktos pasākumus, lai novērstu AI ļaunprātīgu izmantošanu gaidāmajās vēlēšanās.

Ķīnas izmantošana AI ģenerēta satura ietekmēšanai globālajās vēlēšanās rada būtisku draudu demokrātiskiem procesiem. Tehnoloģiju turpinot attīstīties, ir būtiski, lai valdības un organizācijas visā pasaulē būtu uzmanīgas, bekambojot dezinformācijas apkarošanā un nodrošinot vēlēšanu integritāti.

The source of the article is from the blog xn--campiahoy-p6a.es

Privacy policy
Contact