Verbeterde Richtlijnen over AI-gegenereerde Content en gemanipuleerde Media Aangekondigd door Meta

Meta, de gigant op het gebied van sociale netwerken, heeft wijzigingen bekendgemaakt in haar richtlijnen met betrekking tot AI-gegenereerde content en gemanipuleerde media. Deze stap volgt op kritiek van het toezichtsorgaan van het bedrijf en heeft als doel zorgen over misleidende informatie en bedrog aan te pakken.

Vanaf volgende maand zal Meta een “Gemaakt met AI”-badge introduceren voor deepfakes, een vorm van gemanipuleerde media gemaakt met behulp van kunstmatige intelligentie. Bovendien zal Meta, wanneer content op andere manieren is gemanipuleerd om het publiek te misleiden over belangrijke kwesties, aanvullende contextuele informatie verstrekken aan gebruikers.

Deze beleidswijziging heeft aanzienlijke implicaties, vooral in een jaar dat bol staat van verkiezingen over de hele wereld. Dit betekent dat Meta mogelijk meer content zal labelen die het potentieel heeft om te misleiden, met als doel transparantie voor gebruikers te garanderen. Echter, het labelen van deepfakes zal beperkt zijn tot inhoud die ofwel “industriestandaard AI-beeldindicatoren” vertoont of door de uploader als AI-gemaakt is bekendgemaakt.

Hoewel deze verandering zou kunnen resulteren in meer AI-gegenereerde content en gemanipuleerde media die op de platforms van Meta blijven bestaan, is het bedrijf van mening dat transparantie en aanvullende context een betere manier zijn om met dergelijke content om te gaan dan deze volledig te verwijderen.

Om deze verandering te vergemakkelijken, zal Meta content vanaf juli niet meer verwijderen enkel op basis van het huidige beleid betreffende gemanipuleerde video’s. Deze tijdslijn stelt gebruikers in staat vertrouwd te raken met het zelfopenbaringsproces voordat de inhoud niet langer wordt verwijderd.

Het is waarschijnlijk dat de verandering in aanpak een reactie is op de toenemende eisen die aan Meta worden gesteld met betrekking tot contentmoderatie en systemisch risico. De Digital Services Act van de Europese Unie, die regels oplegt aan de sociale netwerken van Meta, heeft het bedrijf gedwongen de delicate balans te vinden tussen het verwijderen van illegale content en het beschermen van de vrijheid van meningsuiting.

De kritiek van het toezichtsorgaan speelde een cruciale rol in Meta’s beslissing om haar beleid te herzien. Het toezichtsorgaan, dat gefinancierd wordt door Meta maar onafhankelijk opereert, heeft het antwoord van Meta op AI-gegenereerde content onderzocht. In het bijzonder heeft het toezichtsorgaan gewezen op de inconsistentie van het beleid van Meta, dat alleen van toepassing was op door AI gecreëerde video’s en andere vormen van gemanipuleerde media ongemoeid liet.

Meta heeft de feedback van het toezichtsorgaan erkend en is van plan haar aanpak uit te breiden om AI-gegenereerde audio, foto’s en andere vormen van gemanipuleerde media te omvatten. Het bedrijf is van plan industriegedeelde signalen te gebruiken om AI-content op te sporen en gebruikers zullen de mogelijkheid hebben om te onthullen of hun uploads AI-gegenereerde inhoud bevatten.

In gevallen waar digitaal gecreëerde of gewijzigde media een aanzienlijk risico vormt om het publiek op belangrijke zaken te misleiden, kan Meta prominentere labels gebruiken om aanvullende informatie en context te bieden. Het doel is gebruikers uit te rusten met de nodige tools om inhoud nauwkeurig te beoordelen en de context ervan over verschillende platforms te begrijpen.

Het is essentieel om op te merken dat Meta geen gemanipuleerde inhoud, op basis van AI of anderszins, zal verwijderen, tenzij deze in strijd is met andere beleidsregels zoals kiezersinmenging of intimidatie. In plaats daarvan zal het bedrijf informatieve labels en context toevoegen in situaties die aanzienlijke publieke belangstelling genereren.

Om de nauwkeurigheid van de inhoud te waarborgen, heeft Meta samengewerkt met bijna 100 onafhankelijke factcheckers die zullen helpen bij het identificeren van risico’s die samenhangen met gemanipuleerde media. Deze externe entiteiten zullen doorgaan met het controleren van valse en misleidende AI-gegenereerde inhoud. Wanneer inhoud als “Onwaar of gewijzigd” wordt geclassificeerd, zal Meta algoritmeaanpassingen implementeren om het bereik ervan te verminderen en een overlay-label met aanvullende informatie weer te geven voor gebruikers die ermee worden geconfronteerd.

Terwijl Meta stappen onderneemt om zorgen over AI-gegenereerde content en gemanipuleerde media aan te pakken, streeft zij naar een balans tussen het beschermen tegen desinformatie en het beschermen van de principes van de vrijheid van meningsuiting.

De veranderingen in de richtlijnen van Meta met betrekking tot AI-gegenereerde content en gemanipuleerde media zijn belangrijk voor de industrie en hebben bredere implicaties voor het landschap van sociale media. Deze stap komt op een moment dat Meta toenemende druk ervaart van regelgevers, wetgevers en het publiek om de verspreiding van misleidende informatie en bedrieglijke inhoud op haar platforms aan te pakken.

Veelgestelde vragen (FAQ)

Wat zijn deepfakes?
Deepfakes zijn gemanipuleerde video’s of media gecreëerd met behulp van kunstmatige intelligentie waardoor het lijkt alsof personen bepaalde handelingen uitvoeren of dingen zeggen die in werkelijkheid niet hebben plaatsgevonden.
Hoe zal Meta gemanipuleerde content aanpakken?
Meta zal gemanipuleerde content niet langer verwijderen, maar zal in plaats daarvan informatie- en contextlabels toevoegen om gebruikers te helpen de inhoud juist te interpreteren.
Zal deze beleidswijziging van invloed zijn op verkiezingen?
Ja, omdat Meta van plan is meer inhoud te labelen die misleidend kan zijn, is het doel om de impact van misleidende informatie tijdens verkiezingen te minimaliseren.

*Bron: Voor meer informatie over dit onderwerp kunt u de website van [Meta](https://www.meta.com) bezoeken.*

The source of the article is from the blog publicsectortravel.org.uk

Privacy policy
Contact