Meta-toezichtsraad richt zich op door AI gecreëerde expliciete beeldmateriaal.

Te midden van groeiende bezorgdheid over het misbruik van kunstmatige intelligentie bij het creëren van expliciete inhoud, komt het onafhankelijke Oversight Board van Meta in actie om de verspreiding van dergelijk materiaal op haar platforms aan te pakken, waaronder Facebook en Instagram, waar regelgeving inzake naaktheid en seksuele inhoud al lange tijd beleid is. Het bestuur onderzoekt twee belangrijke gevallen met betrekking tot door AI gegenereerde expliciete afbeeldingen van publieke figuren om de effectiviteit van Meta’s beleid en handhavingspraktijken tegen deze vorm van intimidatie te beoordelen.

Deze evaluatie beoogt aandacht te vestigen op de kwesties van online intimidatie die verergerd worden door “deepfake-porno,” die steeds meer gericht is op beroemdheden en politici, waardoor discussies over strengere regelgevende maatregelen ontstaan.

Een van de gevallen onder de loep is een Instagram-bericht met een door AI gecreëerde naaktafbeelding van een Indiase vrouw gedeeld door een account dat bekendstaat om soortgelijke inhoud te verspreiden, waar Meta aanvankelijk niet binnen 48 uur naar keek. Het bericht werd verwijderd nadat de gebruiker het probleem naar het Oversight Board had geëscaleerd. Een ander geval betreft een Facebook-bericht dat in een AI-kunstgroep werd gevonden, met een naakte door AI gegenereerde afbeelding die lijkt op een bekende Amerikaanse figuur.

Het focusgebied van het Board gaat verder dan deze gevallen, waarbij de rechtvaardigheid en consistentie van Meta’s inhoudsmoderatie over verschillende markten en talen worden onderzocht. Dit initiatief, dat door medevoorzitter Helle Thorning-Schmidt wordt toegelicht, toont een inspanning om gebruikers wereldwijd en rechtvaardig te beschermen. Het Board staat open voor publieke opmerkingen over de kwestie en is van plan om binnen enkele weken haar beslissing en aanbevelingen voor verbeteringen van Meta’s beleid bekend te maken.

Huidige markttrends:

Door AI gegenereerde inhoud, inclusief deepfakes, is steeds geavanceerder geworden, wat tot bezorgdheid heeft geleid over hun potentieel misbruik. Social media platforms maken steeds uitgebreider gebruik van AI en machine learning-algoritmen om expliciete inhoud te detecteren en verwijderen. Echter, de technologie heeft een digitale wapenwedloop op gang gebracht tussen content creators en platformmoderators. Bovendien heeft de toegenomen aandacht voor gegevensprivacy en gebruikersbescherming geleid tot een grotere vraag naar transparantie en verantwoording van techbedrijven.

Voorspellingen:

Naarmate door AI gegenereerde inhoud gangbaarder wordt, wordt verwacht dat de markt voor detectie- en preventietechnologieën zal groeien. Met de vooruitgang in AI is het waarschijnlijk dat het gebruik en de verfijning van door AI gecreëerde expliciete beelden zullen toenemen. Als gevolg hiervan zal de behoefte aan robuuste regelgevende maatregelen en moderatietools acuter worden.

Belangrijkste uitdagingen en controverses:

De kernuitdaging is het balanceren van de bescherming van individuele privacy en de vrijheid van meningsuiting. Er is een lopend debat over wie verantwoordelijk zou moeten zijn voor het modereren van inhoud – de platforms zelf of een extern orgaan. Ethische vragen over toestemming en het ongeoorloofde gebruik van de gelijkenissen van individuen om expliciete inhoud te produceren zonder hun toestemming voegen complexiteit toe aan het probleem. Daarnaast bestaat het risico van vooringenomen moderatie in niet-Engelse talen of opkomende markten vanwege minder middelen of culturele verschillen.

Belangrijkste vragen:

1. Hoe kan Meta onderscheid maken tussen consensuele volwassen inhoud en niet-consensueel door AI gegenereerd expliciet materiaal?
2. Welke protocollen moeten aanwezig zijn wanneer echte individuen zonder hun toestemming worden afgebeeld?
3. Hoe zal Meta rechtvaardigheid en effectiviteit in haar moderatie over alle talen en markten garanderen?
4. Welke privacymaatregelen zullen worden genomen om de identiteiten en gegevens van gebruikers te beschermen?

Voordelen:

– AI kan enorme hoeveelheden gegevens sneller analyseren dan menselijke moderatoren, wat kan leiden tot mogelijk snellere verwijdering van ongepaste inhoud.
– De betrokkenheid van het Oversight Board moedigt transparantie aan en kan het publieke vertrouwen in Meta’s inhoudsmoderatieprocessen vergroten.

Nadelen:

– AI-algoritmen kunnen de context mogelijk niet nauwkeurig interpreteren, wat kan leiden tot fout-positieven of -negatieven.
– Expliciete afbeeldingen kunnen onherstelbare schade toebrengen aan de reputaties en geestelijke gezondheid van afgebeelde personen.
– De complexiteit van verschillende talen en culturele normen maakt consistente en eerlijke moderatie moeilijk.

Voor meer informatie over de brede inspanningen en richtlijnen met betrekking tot online inhoudsregulatie, gegevensprivacy en het gebruik van kunstmatige intelligentie, kunnen geïnteresseerde lezers de website van Meta bezoeken, die te vinden is op about.fb.com.

The source of the article is from the blog anexartiti.gr

Privacy policy
Contact