AI-chatbot ingezet door Russische entiteit om de publieke opinie te beïnvloeden

Een Russische operatie heeft kunstmatige intelligentie ingezet om het narratief tegen het liberale beleid van de Franse president Emmanuel Macron vorm te geven. Het bevel gericht aan een chatbot om content te creëren met een conservatieve insteek, werd per ongeluk zichtbaar achtergelaten in artikelen die werden gepubliceerd door gbgeopolitics.com, een site met een geopolitieke focus die secties had zoals “US News” en “Oorlog in Gaza.” Ondanks dat het er authentiek uitzag, was de site onderdeel van een groter geheel dat tot doel had de publieke opinie in het Westen te beïnvloeden.

Onderzoeken door het IT-beveiligingsbedrijf Recorded Future hebben aan het licht gebracht dat gbgeopolitics.com, opgericht rond februari of maart, tal van door AI gegenereerde artikelen heeft gehost die specifieke politieke narratieven bevorderden. Deze narratieven waren vaak gericht op het bekritiseren van het beleid van de Democratische Partij in de VS, het verheffen van pro-Republikeinse en pro-Russische perspectieven, en het aannemen van een kritische toon tegenover de NAVO-alliantie en Amerikaanse politici.

Het netwerk van sites dat verband hield met deze beïnvloedingscampagne omvatte ten minste een dozijn online magazines met technische en inhoudelijke overeenkomsten. Publicaties zoals “The Boston Times” en “The British Chronicle” gaven hun doelgroepen aan in de VS, het VK en Frankrijk.

Een voormalige Amerikaanse politieagent, John Mark Dougan, die in 2016 naar Rusland vluchtte na vertrouwelijke informatie over het rechtshandhavingspersoneel in Florida te hebben onthuld en die de alias “BadVolf” gebruikt, zou verbonden kunnen zijn met deze inspanningen. Er zijn vermeende banden ontdekt tussen Dougan, de website DC Weekly en andere sites in het Copycop-netwerk, die allemaal suggereren dat het netwerk verband houdt met Russische overheids- of andere desinformatiegroepen.

De campagne, intern bekend als “Doppelgänger”, bootste verschillende gevestigde Europese mediaplatforms na om misleidende inhoud te verspreiden. Desalniettemin leek het Copycop-netwerk minder gepolijst en onthulde incidenteel zijn gebruik van AI en politieke motieven door toezichtsfouten, mogelijk verergerd door geautomatiseerde processen.

Een van de belangrijkste vragen met betrekking tot het gebruik van AI-chatbots in beïnvloedingscampagnes zoals die ingezet door een Russische entiteit is:

Hoe kunnen samenlevingen en regeringen AI-gestuurde desinformatiecampagnes detecteren en zich hiertegen beschermen?

Antwoord: Het detecteren en beschermen tegen AI-gestuurde desinformatiecampagnes vereist een combinatie van technologische oplossingen, mediawijsheidsprogramma’s en regelgevende maatregelen. AI en machine learning kunnen worden gebruikt om patronen en afwijkingen te identificeren die wijzen op botactiviteit of synthetische tekstgeneratie. Samenwerking tussen sociale mediaplatforms, cybersecuritybedrijven en overheidsinstanties is cruciaal voor het delen van informatie en het beperken van bedreigingen. Bovendien is het essentieel om het publiek op te voeden over hoe ze informatiebronnen kritisch moeten beoordelen om de maatschappelijke weerbaarheid tegen desinformatie te vergroten.

Belangrijke uitdagingen of controverses die gepaard gaan met AI-chatbots die de publieke opinie beïnvloeden zijn onder andere:

1. Het vaststellen van de oorsprong en toewijzing van desinformatiecampagnes, wat vaak gecompliceerd wordt door het gebruik van proxies, VPN’s en andere anonimiteitstools.
2. Het in evenwicht brengen van de noodzaak van vrije meningsuiting en de noodzaak om de verspreiding van onjuiste of misleidende informatie te voorkomen, met name binnen democratische samenlevingen.
3. Zorgen dat tegenmaatregelen de persoonlijke privacy niet schenden of niet leiden tot censuur van legitieme inhoud.
4. Het bijhouden van de voortdurend verbeterende en moeilijker te onderscheiden AI-generaties, die steeds geavanceerder worden en steeds meer lijken op door mensen gegenereerde inhoud.

Voordelen van het inzetten van AI-chatbots in beïnvloedingscampagnes kunnen zijn:

– Schaalbaarheid: AI kan snel en efficiënt een grote hoeveelheid inhoud produceren.
– Anonimiteit: Bots kunnen opereren zonder een directe link naar hun operators, waardoor het moeilijk is om de bron van misinformatie te traceren.
– Kostenbesparing: Eenmaal ontwikkeld kan een AI-systeem tegen lage kosten opereren in vergelijking met menselijke agenten.

Nadelen van deze aanpak zijn:

– Ethische zorgen: Het gebruik van AI om desinformatie te verspreiden is ethisch discutabel en kan het vertrouwen in AI-technologie als geheel ondermijnen.
– Mogelijke backlash: Als dergelijke operaties ontdekt worden, kunnen ze leiden tot diplomatieke incidenten en de internationale reputatie van een land schaden.
– Onnauwkeurigheid: Door AI gegenereerde inhoud kan per ongeluk fouten bevatten of gemakkelijk worden geïdentificeerd als synthetisch, waardoor de effectiviteit ervan wordt verminderd.

Voor meer informatie over AI en cybersecurity, bezoek de website van Recorded Future.

Voor aanvullende inzichten in wereldwijde geopolitieke ontwikkelingen, vindt u de website van Foreign Affairs informatief.

The source of the article is from the blog maltemoney.com.br

Privacy policy
Contact