Meta’s Toezichtsraad onderzoekt door AI gegenereerde ongepaste afbeeldingen op sociale media.

Bij een recent onderzoek naar bedrijfsbeleid heeft Meta’s Toezichtscommissie een onderzoek ingesteld naar de behandeling van twee seksueel expliciete afbeeldingen die zijn gegenereerd door kunstmatige intelligentie (AI) en bekende vrouwen afbeeldde op sociale mediaplatforms. De onafhankelijke commissie, die financiële steun ontvangt van Meta, is van plan de effectiviteit van Meta’s beleid en praktijken te evalueren door deze specifieke incidenten te onderzoeken.

Een vertegenwoordiger van de commissie heeft verslag uitgebracht over de zaak en benadrukte het belang van het voorkomen van verdere schade. Ze kozen er bewust voor om de identiteiten van de beroemdheden die op de afbeeldingen te zien zijn niet bekend te maken, om de situatie niet te verergeren. De geavanceerde aard van AI-technologie heeft de grens tussen kunstmatige en authentieke inhoud online vervaagd, met ernstige implicaties, met name voor de weergave van nep expliciet materiaal gericht op vrouwen en meisjes.

Incidenten met een hoge profilering eerder dit jaar hebben de uitdaging benadrukt waar technologieplatforms mee te maken hebben bij het reguleren van de verspreiding van dergelijke inhoud. Zo worstelde bijvoorbeeld een groot sociaal mediaplatform dat eigendom is van Elon Musk met het controleren van de verspreiding van obscene nepafbeeldingen, wat leidde tot een tijdelijke beperking op zoekopdrachten met betrekking tot de Amerikaanse zangeres Taylor Swift.

Sommige leiders in de sector pleiten voor de oprichting van wettelijke kaders die de productie van hyperrealistische nepafbeeldingen, bekend als “deep fakes”, strafbaar stellen en technologiebedrijven verplichten hun technologieën te beheren om te voorkomen dat ze voor dergelijke doeleinden worden gebruikt.

Volgens verklaringen van Meta’s Toezichtscommissie is een van de controversiële afbeeldingen afkomstig van een Instagram-account dat uitsluitend AI-afbeeldingen van Indiase vrouwen verspreidt, waaronder een gelijkenis van een bekende Indiase figuur. De andere afbeelding, die opdook in een Facebook-groep die AI gegenereerde inhoud deelde, beeldde een figuur af die leek op een beroemde Amerikaanse vrouw in een expliciete situatie.

Meta reageerde door de afbeelding van de Amerikaanse te verwijderen vanwege schendingen van haar beleid tegen pesten en intimidatie met “gemanipuleerde afbeeldingen met vernederende seksuele inhoud”. De afbeelding met de Indiase figuur bleef echter aanvankelijk onaangeroerd en werd pas verwijderd nadat de Toezichtscommissie haar onderzoek was gestart.

Meta erkende de incidenten en heeft zich erop toegelegd de besluiten van de Toezichtscommissie in deze aangelegenheden uit te voeren.

Huidige Marktontwikkelingen: De proliferatie van AI gegenereerde inhoud op sociale media heeft verschillende trends en uitdagingen met zich meegebracht. AI is zo ver gevorderd dat het genereren van realistische afbeeldingen, video’s en tekst steeds eenvoudiger wordt. Dit heeft geleid tot positieve effecten, zoals het automatiseren van creatieve taken en het personaliseren van gebruikerservaringen, maar ook negatieve effecten, waaronder de creatie van deep fakes en ongepaste inhoud.

Voor sociale mediabedrijven kan AI een tweesnijdend zwaard zijn. Het maakt krachtige inhoudsmoderatie mogelijk door de geautomatiseerde detectie van beleidsschendingen, maar anderzijds maakt het ook de creatie van realistisch nepmateriaal mogelijk dat detectiealgoritmen kan omzeilen. Als zodanig zijn deze bedrijven voortdurend bezig hun algoritmen bij te werken om gelijke tred te houden met deze ontwikkelingen.

Voorspellingen: Er wordt verwacht dat AI in de nabije toekomst nog geavanceerder zal worden, wat betekent dat de generatie en detectie van ongepaste inhoud zich in een continue wapenwedloop zullen bevinden. De vraag naar meer geavanceerde inhoudsmoderatietools en duidelijkere regelgevingskaders naar verwachting toenemen.

Belangrijke Uitdagingen of Controverses: Het gebruik van AI om ongepaste afbeeldingen te genereren brengt belangrijke zorgen met zich mee over privacy, toestemming en de schade aan individuen die zonder hun goedkeuring worden afgebeeld. Er is een voortdurend debat gaande over wie verantwoordelijk moet worden gehouden—de makers van de AI, de gebruikers die de inhoud genereren en verspreiden, of de platforms die het hosten.

Vooral deep fakes zijn aangemerkt als een aanzienlijke bedreiging voor zowel individuele reputaties als het bredere maatschappelijke vertrouwen. Naarmate de technologie vordert, blijft de scheidslijn tussen echt en nepmateriaal vervagen, wat uitdagingen creëert voor wetshandhaving, inhoudsmoderatoren en het algemene publiek.

Voor- en Nadelen:
Voordelen:
– AI kan de efficiëntie van inhoudsmoderatie verbeteren door de detectie van beleidsschendingen te automatiseren.
– Nieuwe creatieve mogelijkheden doen zich voor voor legitieme toepassingen van AI gegenereerde inhoud in kunst, entertainment en onderwijs.

Nadelen:
– AI gegenereerde inhoud kan kwaadaardig worden gebruikt om individuen te imiteren, te belasteren of te chanteren.
– Het kan het vertrouwen in digitale media ondermijnen, waardoor het moeilijk wordt om waarheid van fabricatie te onderscheiden.
– Het risico op schade is aanzienlijk, vooral wanneer vrouwen en meisjes onevenredig worden blootgesteld aan ongepaste AI gegenereerde inhoud.

Voor verdere verkenning van AI-beleid en -regelgeving, overweeg de volgende links te bezoeken:
– Ethiek en Maatschappij van Kunstmatige Intelligentie: AIES Conferentie
– AI Beleidskader: OESO
– Wereldwijde AI Governance: World Economic Forum

Het is belangrijk op te merken dat deze links worden verstrekt voor informatieve doeleinden en niet direct verband houden met de specifieke acties van Meta’s Toezichtscommissie of de in het artikel genoemde incidenten. Ze bieden algemene bronnen voor het begrijpen van de bredere context van AI-beleid en -regelgeving.

The source of the article is from the blog mgz.com.tw

Privacy policy
Contact