Stem van Portugese politieke leider gekloond door AI voor misleidende reclames

Een ongekend incident in Portugal is aan het licht gebracht door experts van MediaLab, een onderdeel van de afdeling communicatiewetenschappen van ISCTE-IUL. Ze ontdekten dat André Ventura, een prominente politieke figuur, overtuigend werd gereproduceerd door kunstmatige intelligentie (AI) om een misleidend financieel schema te promoten in een advertentie.

De commerciële uiting, gezien door bijna 17.000 Portugese burgers op Facebook en Instagram, toonde Ventura die investeringen aanraadde in een twijfelachtig geldmakend platform. Hoewel de advertentie er commercieel uitzag, waarschuwden experts Gustavo Cardoso en José Moreno van MediaLab voor de mogelijke politieke gevolgen, vooral tijdens verkiezingen. De advertentie suggereerde frauduleus de goedkeuring van Ventura van twijfelachtige online welvaartsopbouwschema’s, wat politieke percepties onbedoeld zou kunnen beïnvloeden.

Analisten bij MediaLab ontdekten ook andere misleidende politieke advertenties met beeldmateriaal gerelateerd aan de Chega-partij, inclusief zowel Ventura als een andere kandidaat, António Tanger Corrêa, en zelfs het verkeerd weergeven van uitspraken van António Costa. Deze verzonnen verhalen hebben naar verluidt meer dan 66.000 mensen in Portugal bereikt, maar de identiteit van de adverteerders blijft een mysterie.

Het gebruik van publieke figuren in deze oplichtingspraktijken dient doorgaans een dubbel doel: winst maken uit de misleiden en de persoonlijkheden discreditëren. Advertenties die doorverwijzen naar vervalste gekloonde websites van Correio da Manhã en Galp presenteerden verzonnen verhalen over deze politieke persoonlijkheden om lezers te lokken.

Het onderzoek van MediaLab onthulde dat de contentcreatie geautomatiseerd is, waarbij algoritmes populaire socialemediapersonen identificeren om misleidende tekstverhalen te genereren. José Moreno merkte ironisch op dat Ventura een slachtoffer werd van zijn aanzienlijke aanwezigheid op sociale media. Bovendien leiden pogingen om de adverteerders of de eigenaars van de website op te sporen tot doodlopende wegen, met anonieme registratievermeldingen die leiden naar servers in Californië en registraties in Reykjavik, IJsland.

Het gebruik van AI om stemmen te klonen en misleidende advertenties te maken, stelt aanzienlijke ethische, juridische en politieke uitdagingen. Het incident met de Portugese politieke leider André Ventura belicht belangrijke vragen en zorgen in dit domein:

Belangrijke vragen en antwoorden:
– Hoe kan de samenleving zich beschermen tegen het misbruik van AI bij het creëren van misleidende content? Regels en geavanceerde detectietechnologieën moeten worden ontwikkeld om synthetische media te identificeren en te bestrijden.
– Welke juridische repercussies bestaan er voor de makers van dergelijke frauduleuze advertenties? Momenteel kunnen de wetten per land verschillen, maar er is een groeiende behoefte aan internationale juridische kaders om dergelijke gevallen van digitale impersonatie en fraude te vervolgen.
– Hoe significant is de dreiging van deepfake-technologie voor de integriteit van politieke processen? De dreiging is aanzienlijk, omdat het de percepties van kiezers kan verstoren en het vertrouwen in democratische instellingen kan ondermijnen.

Belangrijke uitdagingen of controverses:
– Detectie en Regulering: Betrouwbare tools ontwikkelen om deepfakes op te sporen en regels vaststellen die kunnen bijhouden met snel voortschrijdende technologieën is uitdagend.
– Vrije Meningsuiting versus Misinformatie: Het balanceren van de bescherming van de vrije meningsuiting met de noodzaak om de verspreiding van misinformatie te voorkomen, is een heikel punt.
– Politieke Manipulatie: Er bestaan zorgen dat deepfake-technologie kan worden gebruikt om verkiezingsresultaten te manipuleren of politieke onrust te creëren.

Voordelen en Nadelen van AI in Media:

Voordelen:
– AI kan worden ingezet voor innovatieve contentcreatie, waardoor kosten en tijd in mediaproductie worden verminderd.
– AI-technologie kan de personalisatie en toegankelijkheid van content verbeteren voor gebruikers met een handicap.

Nadelen:
– De technologie kan misbruikt worden om misleidende en bedrieglijke inhoud te creëren.
– Door AI gegenereerde nepinhoud kan het publieke vertrouwen in media en instellingen ondermijnen.
– Juridische systemen kunnen moeite hebben om gelijke tred te houden met de uitdagingen die worden gesteld door synthetische media.

Voor meer informatie over AI en de ethische implicaties ervan, zouden gerelateerde links doorgaans kunnen verwijzen naar gerenommeerde organisaties zoals de Partnership on AI (partnershiponai.org) of academische instellingen zoals het Human-Centered AI Institute van Stanford (hai.stanford.edu). Deze links bieden informatie over het verantwoordelijk gebruik van kunstmatige intelligentie.

De onthullingen van ISCTE-IUL’s MediaLab benadrukken de dringende noodzaak van zowel technologische als wetgevende oplossingen om te beschermen tegen het kwaadwillig gebruik van deepfake-technologie en om de integriteit van informatie online te waarborgen.

Privacy policy
Contact