Hoe AI de grenzen van de realiteit verlegt

Kunstmatige Intelligentie (AI) is een alomtegenwoordige kracht geworden in ons leven, die verschillende industrieën transformeert en de manier waarop we met technologie omgaan revolutioneert. Echter, samen met zijn ongelooflijke vooruitgang heeft AI ook een zorgwekkend probleem met zich meegebracht – de opkomst van zogenaamde ‘deepfakes’.

Deepfakes verwijzen naar gemanipuleerde media, waaronder video’s, audio en afbeeldingen, die gecreëerd of gewijzigd zijn met behulp van AI-technologie om kijkers te misleiden. Deze misleidende media kunnen voor uiteenlopende doeleinden worden gebruikt, van het verspreiden van desinformatie tot het kwaadwillig manipuleren van de publieke opinie.

Als reactie op de risico’s die gepaard gaan met deepfakes, heeft de social media gigant Meta, voorheen bekend als Facebook en Instagram, aangekondigd dat het vanaf mei zal beginnen met het labelen van door AI gegenereerde media.

Deze stap komt omdat Meta zijn gebruikers en overheden wil geruststellen over de potentiële gevaren van deepfakes. In plaats van gemanipuleerde afbeeldingen en audio die niet in strijd zijn met zijn regels te verwijderen, heeft Meta gekozen voor labelen en contextualisering. Deze aanpak heeft tot doel een balans te vinden tussen het beschermen van de vrijheid van meningsuiting en het aanpakken van de groeiende bezorgdheid rond gemanipuleerde media.

Onder Meta’s nieuw labelingssysteem zal inhoud die wordt geïdentificeerd als “Gemaakt met AI” duidelijk worden gemarkeerd, waardoor gebruikers media kunnen herkennen die is gegenereerd of gewijzigd met behulp van kunstmatige intelligentie. Bovendien zal inhoud die een hoog risico loopt om het publiek te misleiden een prominenter label krijgen.

Door transparantie en aanvullende context te bieden, hoopt Meta het probleem van deepfakes effectiever aan te pakken. Volgens Monika Bickert, Vice President van Contentbeleid bij Meta, zullen de nieuwe labeltechnieken verder gaan dan de gemanipuleerde inhoud die door de toezichtsraad van Meta wordt aanbevolen. Deze stap sluit aan bij een overeenkomst die is gesloten tussen grote techgiganten en AI-spelers om samen te werken bij het bestrijden van gemanipuleerde media.

Deskundigen waarschuwen echter dat hoewel het identificeren van AI-inhoud een positieve stap is, er nog steeds hiaten kunnen zijn. Nicolas Gaudemet, AI-directeur bij Onepoint, benadrukt dat open-source software bijvoorbeeld niet altijd de watermerktechniek gebruikt die is aangenomen door grotere AI-spelers. Deze inconsistentie zou mogelijk de effectiviteit van het labelingssysteem kunnen ondermijnen.

De uitrol van het labelingssysteem door Meta zal plaatsvinden in twee fasen, te beginnen met het labelen van door AI gegenereerde inhoud in mei 2024. Het verwijderen van gemanipuleerde media die uitsluitend gebaseerd is op het oude beleid zal stoppen in juli. Volgens de nieuwe standaard zal door AI gegenereerde inhoud op het platform blijven, tenzij het andere regels overtreedt, zoals haatzaaien of kiezersbeïnvloeding.

De noodzaak van transparantie en verantwoordelijkheid met betrekking tot door AI gegenereerde media is steeds duidelijker geworden. Recente voorbeelden van overtuigende deepfakes hebben zorgen doen rijzen over het potentiële misbruik van AI-technologie voor desinformatiedoeleinden. Meta’s reactie op deze zorgen toont een inzet om het probleem aan te pakken, terwijl er een balans wordt gehandhaafd tussen de vrijheid van meningsuiting en gebruikersbescherming.

Terwijl AI blijft vorderen, is het cruciaal voor de samenleving om zich aan te passen en strategieën te ontwikkelen die beschermen tegen het misbruik van deze krachtige technologie. Transparantie, samenwerking tussen spelers in de industrie en de betrokkenheid van waakhondorganisaties zullen essentieel zijn om de integriteit en betrouwbaarheid van onze digitale landschappen te handhaven.

Veelgestelde vragen (FAQ)

The source of the article is from the blog procarsrl.com.ar

Privacy policy
Contact