De opkomende gevaren van AI Deepfakes in Verkiezingen

Artificiële intelligentie (AI) heeft de dreiging van verkiezingsmisinformatie wereldwijd gerevolutioneerd. Door de beschikbaarheid van gratis en goedkope generatieve AI-diensten is het creëren van overtuigende deepfake-content makkelijker dan ooit tevoren. Voorheen vereisten nepfoto’s, -video’s en -audioclips uitgebreide middelen en technische vaardigheden, maar nu kan iedereen met een smartphone en een ondeugende verbeelding hoogwaardige deepfakes maken met eenvoudige tekstprompt.

Terwijl meer dan 50 landen zich voorbereiden op aankomende verkiezingen, groeit de bezorgdheid over de invloed van AI deepfakes. Henry Ajder, een expert in generatieve AI, gelooft dat de vraag niet is of AI deepfakes verkiezingen zullen beïnvloeden, maar eerder hoe invloedrijk ze zullen zijn. Deze deepfakes kunnen een kandidaat in diskrediet brengen of positief belichten, kiezers naar of weg van kandidaten leiden en zelfs mensen ontmoedigen om helemaal niet te stemmen. De meest significante dreiging die experts identificeren, is echter de aantasting van het publieke vertrouwen in wat ze zien en horen.

Recente voorbeelden van AI deepfakes in verkiezingen zijn onder andere een video van de pro-westerse president van Moldavië die een op Rusland gerichte partij steunt, audioclips van de leider van de liberale partij van Slowakije die spreekt over verkiezingsfraude en het verhogen van de bierprijs, en een video van een oppositielid in Bangladesh die een bikini draagt. De nieuwigheid en verfijning van de technologie maken het moeilijk om de oorspronkelijke makers van deze deepfakes te traceren.

Overheden en bedrijven worstelen om deze kwestie effectief aan te pakken. De technologie evolueert snel, waardoor het steeds moeilijker wordt om onderscheid te maken tussen echt en nepinhoud. Naarmate de technologie verbetert, worden definitieve antwoorden over de authenticiteit van deze inhoud moeilijker te verkrijgen. Deze uitdaging wekt bezorgdheid op over de impact van AI deepfakes op verkiezingen en democratie als geheel.

AI deepfakes beogen twijfel te zaaien over de loyaliteiten van kandidaten en vertrouwen in verkiezingsprocessen en instituties te ondermijnen. In Moldavië bijvoorbeeld hebben deepfakes zich gericht op de pro-westerse president Maia Sandu, waardoor het vertrouwen in het verkiezingsproces werd ondermijnd. Soortgelijke zorgen zijn geuit over het gebruik van generatieve AI door China voor politieke doeleinden in Taiwan. De Communistische Partij van China is beschuldigd van inmenging in Taiwanese politiek door deepfakes te verspreiden op platforms zoals TikTok.

Alleen op audio gebaseerde deepfakes zijn bijzonder moeilijk te detecteren omdat ze geen visuele aanwijzingen van manipulatie hebben. In landen als Slowakije, waar Russische invloed hangt, werden audioclips die leken op de stem van de leider van de liberale partij wijd verspreid, waarbij werd beweerd dat er verkiezingsfraude plaatsvond en dat de bierprijs werd gemanipuleerd. Mensen zijn meer gewend om met hun ogen dan met hun oren te beoordelen, waardoor audio deepfakes bedrieglijker zijn.

Deskundigen maken zich zorgen dat aankomende verkiezingen in India, waar sociale media platforms broedplaatsen zijn voor desinformatie, te maken zullen krijgen met de dreiging van AI deepfakes. In armere landen met lagere mediawijsheid kunnen zelfs van lage kwaliteit AI deepfakes een aanzienlijke invloed hebben op de publieke opinie en het vertrouwen.

Het aanpakken van deze uitdaging vereist wereldwijde inspanningen. De Europese Unie verplicht sociale mediaplatforms al om de verspreiding van desinformatie en manipulatie van verkiezingen te verminderen, inclusief speciale labeling van AI deepfakes. Hoewel grote techbedrijven vrijwillig hebben toegezegd om verstoringen veroorzaakt door AI-tools in verkiezingen te voorkomen, moet er nog veel meer worden gedaan om de verspreiding van deepfakes op platforms zoals Telegram tegen te gaan.

VEELGESTELDE VRAGEN

The source of the article is from the blog coletivometranca.com.br

Privacy policy
Contact