Hoe AI de verkiezingen van 2024 beïnvloedt en de groeiende dreiging van deep fakes

Terwijl Groot-Brittannië zich klaarmaakt voor lokale en algemene verkiezingen in 2024, waarschuwen cybersecurity-experts voor de aanzienlijke risico’s die worden gevormd door door de staat gesteunde cyberaanvallen en desinformatiecampagnes. Wat de bezorgdheid vergroot, is het gebruik van kunstmatige intelligentie (AI) bij deze kwaadaardige activiteiten, wat als bijzonder zorgwekkend wordt beschouwd. Deze achtergrond van cyberbedreigingen en desinformatiecampagnes vindt plaats te midden van andere kwesties zoals stijgende kosten van levensonderhoud en immigratiespanningen, waardoor het politieke landschap nog complexer wordt.

De maanden voorafgaand aan de verkiezingen zullen naar verwachting een toename van cybersecurity-risico’s laten zien. Vergelijkbare gevallen zijn eerder waargenomen, zoals de Amerikaanse presidentsverkiezingen van 2016 en de Brexit-stemming in het Verenigd Koninkrijk, beide verstoord door desinformatie verspreid via sociale-mediaplatforms. Door Rusland gelinkte staataffiliaties werden verantwoordelijk gehouden voor deze verstoringen. In de loop der tijd zijn statelijke actoren steeds bedrevener geworden in het manipuleren van verkiezingsresultaten door routinematige aanvallen in verschillende landen.

In recent nieuws beschuldigde het Verenigd Koninkrijk een Chinese door de staat gesteunde hackergroep genaamd APT 31 van een poging om toegang te krijgen tot de e-mailaccounts van wetgevers. Hoewel onsuccesvol, illustreert dit incident de groeiende bezorgdheid over door de staat gesponsorde hackactiviteiten. Als reactie hierop legde Londen sancties op aan Chinese individuen en een technologiebedrijf dat naar verluidt geassocieerd is met APT 31. De Verenigde Staten, Australië en Nieuw-Zeeland hebben ook hun eigen sancties opgelegd, hoewel China deze beschuldigingen heeft weerlegd.

Een van de belangrijkste cybersecurity-bedreigingen voor de komende verkiezingen is het gebruik van op AI-gebaseerde desinformatie. Deskundigen voorspellen dat desinformatiecampagnes dit jaar zullen worden versterkt door de toenemende beschikbaarheid van AI-tools. Synthetische afbeeldingen, video’s en audio, vaak aangeduid als “deep fakes”, zullen naar verwachting veel voorkomen nu individuen grotere toegang tot door AI gegenereerde contentcreatie hebben. Bedreigingsactoren, waaronder staten en cybercriminelen, zullen naar verwachting AI gebruiken om op identiteit gebaseerde aanvallen te lanceren, zoals phishing, sociale manipulatie, ransomware en supply chain-compromissen, gericht op politici, campagnepersoneel en verkiezingsgerelateerde instellingen. De proliferatie van AI en door bots gedreven content zal ook bijdragen aan de verspreiding van misinformatie op een veel grotere schaal dan in eerdere verkiezingscycli.

De cybersecurity-gemeenschap benadrukt de noodzaak van verhoogd bewustzijn en internationale samenwerking om dit soort op AI gegenereerde misinformatie aan te pakken. Adam Meyers, een expert in het tegengaan van vijandelijke operaties, heeft op AI-gebaseerde desinformatie geïdentificeerd als een toprisico voor verkiezingen in 2024. Hij waarschuwt dat vijandige staten, zoals China, Rusland en Iran, AI en deep fakes kunnen benutten om overtuigende verhalen te creëren die inspelen op bevestigingsvooroordelen, en zo een ernstige bedreiging vormen voor het democratische proces.

AI vormt nog een andere uitdaging in de vorm van het verlagen van de drempels voor cybercriminelen. Oplichtingsmails die gebruikmaken van AI-tools om overtuigende berichten samen te stellen, zijn al opgedoken. Hackers maken ook gebruik van AI-modellen die zijn getraind op gegevens van sociale media om meer gepersonaliseerde aanvallen te lanceren. De verspreiding van neppe AI-gegenereerde audioclips, vergelijkbaar met degene die gericht was op Keir Starmer, de leider van de oppositiepartij Labour, in oktober 2023, benadrukt de groeiende bezorgdheid rond deep fakes en hun impact op verkiezingen.

Naarmate de technologie voor deep fakes geavanceerder wordt, zijn techbedrijven betrokken bij een voortdurende strijd om misbruik tegen te gaan. AI wordt nu gebruikt om deep fakes te detecteren, maar de grenzen tussen realiteit en manipulatie worden steeds vager. Bepaalde aanwijzingen, zoals discrepanties als gevolg van AI-fouten, kunnen helpen om gemanipuleerde inhoud te identificeren. Bijvoorbeeld, in een op AI gegenereerde video, als een lepel plotseling verdwijnt, kan dit duiden op geknoei.

Nu het Verenigd Koninkrijk zijn verkiezingen nadert, benadrukken branche-experts het belang van het verifiëren van de authenticiteit van informatie om de risico’s van door de staat gesteunde cyberaanvallen en desinformatie te bestrijden. Het gebruik van AI bij deze kwaadaardige activiteiten vormt een formidabele uitdaging, waardoor het essentieel is voor individuen, organisaties en overheden om waakzaam te blijven om de integriteit van het democratische proces te beschermen.

The source of the article is from the blog trebujena.net

Privacy policy
Contact