OpenAI onthult gevallen van buitenlandse manipulatie met behulp van AI in Japan

Het Inlichtingenteam van OpenAI Onderzoekt door AI Aangestuurde Beïnvloedingscampagnes

In een onthullende discussie met geselecteerde Japanse mediakanalen, waaronder The Mainichi Newspapers, heeft Ben Nimmo, Hoofd van Inlichtingenonderzoek bij OpenAI, voorbeelden onthuld van buitenlandse beïnvloedingsoperaties die zich richtten op Japan en andere landen. Op dit moment wordt AI voornamelijk ingezet voor het creëren van tekst in deze strategieën.

Identificatie van Kwaadwillig AI-gebruik door OpenAI

OpenAI heeft vooruitgang geboekt met interactieve AI zoals ChatGPT. Volgens een rapport dat op 30 mei is vrijgegeven, heeft het bedrijf accounts gedetecteerd en tijdelijk geschorst die gelieerd waren aan vijf groepen uit Rusland, China, Israël en andere landen vanwege het gebruik van hun AI bij beïnvloedingsoperaties. Een opmerkelijke vermelding betrof een netwerk dat naar verluidt verbonden was met Chinese wetshandhavingsinstanties, bekend als “Spamouflage”. Zij zouden Japanse taalverhalen hebben gemaakt die zich verzetten tegen het vrijgeven van behandeld water uit de kerncentrale Fukushima Daiichi in de oceaan, door gebruik te maken van de technologie van OpenAI, en deze verhalen verspreidden op grote blogplatforms.

Definitie van Beïnvloedingsoperaties

Nimmo karakteriseert beïnvloedingsoperaties als heimelijke pogingen om de publieke opinie te beïnvloeden of politieke gebeurtenissen te beïnvloeden zonder de identiteit of intenties van de operatoren bekend te maken – een duidelijk contrast met slechts de verspreiding van valse of onjuiste informatie. Hij benadrukt het belang van het onderzoeken van niet alleen de inhoud, maar ook de entiteiten die deze operaties orkestreren en hun gedragspatronen.

Ondanks een grondig onderzoek werden er geen andere beginpunten van beïnvloedingscampagnes gericht op Japan gevonden dan “Spamouflage,” en er zijn geen dergelijke operaties gericht op de Amerikaanse presidentsverkiezingen van november geïdentificeerd. Primair is AI gebruikt om teksten te componeren of vertalen voor social media of blogposts in deze beïnvloedingsinspanningen. Misbruik van gegenereerde afbeeldingen bleek verwaarloosbaar.

De Dunne Scheidslijn Tussen Pogingen tot en daadwerkelijke Manipulatie van Opinies

Nimmo maakt ook onderscheid tussen de intentie om de publieke opinie te manipuleren en het daadwerkelijk met succes uitvoeren van dergelijke manipulatie, waarbij wordt aangegeven dat er geen impactvolle beïnvloeding is waargenomen in dit onderzoek. Hij benadrukte echter de potentiële tegenmaatregelen met behulp van AI, die aanzienlijk kunnen bijdragen aan het verkorten van de duur van analysewerkzaamheden van uren of dagen tot slechts enkele minuten.

Ben Nimmo heeft een uitstekende achtergrond, als medeoprichter van het Digital Forensic Research Lab bij The Atlantic Council en het uitvoeren van onderzoeken naar georganiseerd wangedrag van binnenlandse en internationale bronnen bij Meta.

Uitdagingen en Controverse in AI-gestuurde Beïnvloedingscampagnes

Het opsporen en tegengaan van buitenlandse beïnvloedingsoperaties die gebruik maken van AI-technologieën zoals die ontwikkeld door OpenAI brengt verschillende uitdagingen en controverses met zich mee:

Het onderscheid maken tussen legitiem en kwaadwillig gebruik: AI-tools zijn wijdverspreid toegankelijk en kunnen worden gebruikt voor legitieme doeleinden zoals taalvertaling, contentcreatie en meer. Het onderscheid maken tussen goedbedoeld en kwaadwillig gebruik vereist geavanceerde analyse en vaak subjectieve oordelen.

Valse positieven: Inspanningen om beïnvloedingsoperaties te identificeren lopen het risico om ten onrechte legitieme campagnes of gebruikers aan te duiden, wat gevolgen kan hebben voor de vrijheid van meningsuiting en digitale rechten.

Privacyzorgen: Het onderzoeken van online gedragingen en het ontmantelen van beïnvloedingsoperaties kan toegang tot persoonlijke gegevens vereisen, wat leidt tot privacyzorgen en mogelijke inbreuken.

Regelgevende reactie: De evoluerende aard van AI betekent dat regelgevers vaak achter de feiten aanlopen, en dit roept de vraag op hoe wetten en richtlijnen moeten worden aangepast om het misbruik van dergelijke technologieën aan te pakken.

Voordelen van het Aanpakken van AI-gestuurde Beïnvloedingscampagnes

– Verbeterde veiligheid: Het identificeren en tegengaan van beïnvloedingsoperaties draagt bij aan de algehele cyberbeveiliging van landen en beschermt democratische processen.

Publieksbewustzijn: Het blootleggen van deze campagnes kan het publieksbewustzijn vergroten over desinformatie en de rol van kunstmatige intelligentie in informatie manipulatie.

Technologische vooruitgang: Het aanpakken van misbruik kan bijdragen aan de ontwikkeling van meer robuuste en ethische AI-systemen.

Nadelen van het Aanpakken van AI-gestuurde Beïnvloedingscampagnes

Resource intensief: Het onderzoeken en tegengaan van beïnvloedingsoperaties vereist aanzienlijke middelen, van computervermogen tot bekwame analisten.

Whack-a-mole effect: Zodra een operatie wordt stopgezet, kan er een andere opduiken, wat leidt tot een voortdurende cyclus van detectie en reactie.

Censuurzorgen: Maatregelen die worden genomen om beïnvloedingsoperaties te onderdrukken, kunnen leiden tot beschuldigingen van censuur of onderdrukking van legitiem politiek discours.

Voor meer informatie over kunstmatige intelligentie en de ontwikkelingen op dit gebied, kunt u de officiële website van OpenAI bezoeken via deze link.

Privacy policy
Contact