Dirbtinis intelektas (AI) Chatbot, kurį įdiegė Rusijos organizacija, siekdama įtakoti visuomenės nuomonę.

Rusijos operacija naudojo dirbtinį intelektą formuojant pasakojimą prieš Prancūzijos prezidento Emmanuelio Macrono vyriausybės liberalią politiką. Komanda nurodė chatbotui kurti turinį, kuriame būtų konservatyvus požiūris, kuris neatsargiai buvo paliktas matomas straipsniuose, publikuotuose svetainėje gbgeopolitics.com, kurioje buvo geopolitikai orientuotų skyrių, tokių kaip „JAV naujienos” ir „Karas Gazos Ruože”. Nepaisant autentiškumo įspūdžio, svetainė buvo grandinėje, siekiančioje įtakoti Vakarų viešąją nuotaiką.

IT saugumo įmonės Recorded Future tyrimai parodė, kad gbgeopolitics.com, susikūrusi apie vasarį ar kovo mėnesį, talpindavo daugybę dirbtinio intelekto sugeneruotų straipsnių, kurie skatino konkrečius politinius pasakojimus. Šie pasakojimai dažnai buvo orientuoti į kritiką JAV Demokratų partijos politikos, skatindami pro-Republikonų ir pro-Rusijos požiūrius bei kritinį toną link NATO aljanso ir amerikiečių politikų.

Šios įtakos kampaniją siekianti tinklaraščių grandinė apėmė bent tuziną internetinių žurnalų, turinčių techninių ir turinio ypatumų bendrumus. Leidiniai, tokiu kaip „The Boston Times” ir „The British Chronicle”, rodydami taikinį auditoriją JAV, JK ir Prancūzijoje.

Buvęs amerikiečių policijos pareigūnas Džonas Markas Douganas, kuris 2016 metais pabėgo į Rusiją po atskleidęs slaptą informaciją apie Floridos teisėsaugos pareigūnus ir naudodamas slapyvardį „BadVolf”, gali būti susijęs su šiais pastangomis. Numatytos ryšys tarp Dougan, DC Weekly tinklaraščio ir kitų Copycop tinklo svetainių buvo aptikti, visi parodantys, kad tinklas gali būti susijęs su Rusijos vyriausybės ar didesnės dezinformacijos grupių pažiūromis.

Viduje žinoma kampanija „Doppelgänger” mimikavo įvairius įsipareigojusius Europos žiniasklaidos platintojus skleisti klaidinančią informaciją. Tačiau Copycop tinklas atrodė mažiau išbaigtas ir atsitiktinai atskleidė savo dirbtinio intelekto naudojimą ir politines paskatas dėl priežiūros trūkumų, galbūt sustiprintų automatiniais procesais.

Vienas iš svarbiausių klausimų, susijusių su AI chatbotų naudojimu įtakos kampanijose, tokiame, koks buvo sukurtas Rusijos subjekto, yra:

Kaip visuomenės ir vyriausybės gali aptikti ir apsisaugoti nuo AI paremtų dezinformacijos kampanijų?

Atsakymas: AI paremtų dezinformacijos kampanijų aptikimui ir apsaugai reikia technologinių sprendimų, žiniasklaidos raštingumo programų ir reguliavimo priemonių kombinacijos. AI ir mašininis mokymas gali būti naudojami norint nustatyti pateikimo ir anomalijų, nurodančių botų veiklą ar sintetinio teksto generavimą, modelius. Būtinos bendradarbiavimo pastangos tarp socialinių tinklų platformų, saugumo įmonių ir vyriausybės institucijų dalijantis informacija ir mažinant grėsmes. Be to, svarbu mokyti visuomenę kritiškai vertinti informacijos šaltinius, siekiant sukurti visuomenės atsparumą dezinformacijai.

AI chatbotų poveikio viešoms nuomonėms sukeliančių klausimų ar kontroversijų, įskaitant:

1. Nustatyti dezinformacijos kampanijų kilmės ir autorystės, kuri dažnai sudėtinga dėl įgaliojimų išnaudojimo, VPN ir kitų anonimiškumo įrankių naudojimo.
2. Balansuojant poreikį laisvai kalbai ir būtinybę užkirsti kelią klaidingai ar neteisingai informacijai plisti, ypač demokratiniuose visuomenėse.
3. Užtikrinant, kad priešpriemonės neliečia asmens privatumo ar neturi pasekmių cenzūruojant teisėtą turinį.
4. Laiku prisitaikyti prie nuolat tobulėjančio AI generuojamo turinio sudėtingumo, kuris nuolat tobulėja ir tampa vis sunkiau atskirti nuo žmogaus sukaupto turinio.

AI chatbotų naudojimo įtakos kampanijose privalumai gali apimti:

– Galimybė plečiant: AI gali greitai ir efektyviai sukurti didelį kiekį turinio.
– Anonimiškumas: Botai gali veikti be tiesioginio ryšio su savo operatoriais, todėl sunku nustatyti dezinformacijos šaltinį.
– Ekonomiškumas: Kuomet sukurtas AI sistema, ji gali veikti maža kaina palyginti su žmogaus agentais.

Šios veiklos trūkumai gali būti:

– Etiniai susirūpinimai: AI naudojimas dezinformacijai sklaidai kelia etinių abejonių ir gali destabilizuoti pasitikėjimą AI technologija apskritai.
– Galimas atvira veikla: Jeigu atskleidžiama, tokios operacijos gali sukelti diplomatines incidentus ir sugadinti šalies tarptautinę reputaciją.
– Netikslumas: AI sugeneruotas turinys gali atsitiktinai turėti klaidų ar būti lengvai identifikuotas kaip sintetinis, sumažindamas jo veiksmingumą.

Daugiau informacijos apie AI ir kibernetinę saugą rasite Recorded Future svetainėje.

Daugiau įžvalgų apie globalinius geopolitinius įvykius galite rasti Foreign Affairs svetainėje.

Privacy policy
Contact