Nye retningslinjer for AI-genereret indhold og manipulerede medier annonceret af Meta

Meta, det sociale netværksgigant, har afsløret ændringer i sine retningslinjer vedrørende AI-genereret indhold og manipulerede medier. Skiftet kommer som svar på kritik fra virksomhedens tilsynsudvalg og sigter mod at håndtere bekymringer omkring vildledende information og bedrag.

Fra næste måned vil Meta introducere et “Lavet med AI” badge til deepfakes, en form for manipulerede medier skabt ved hjælp af kunstig intelligens. Derudover, når indhold er blevet manipuleret på andre måder, der kan vildlede offentligheden om vigtige emner, vil Meta give yderligere kontekstuel information til brugerne.

Denne ændring af politikken har betydelige implikationer, især i et år fyldt med valg over hele kloden. Det betyder, at Meta måske mærker mere indhold, der har potentiale for at vildlede, hvilket sikrer gennemsigtighed for brugerne. Dog vil mærkningen af deepfakes være begrænset til indhold, der enten viser “branchestandard AI-billedindikatorer” eller er blevet angivet af uploaderen som AI-genereret.

Selvom dette skift kan resultere i, at mere AI-genereret indhold og manipulerede medier forbliver på Metas platforme, mener virksomheden, at det at give transparens og yderligere kontekst er en bedre måde at håndtere sådant indhold på, i stedet for at fjerne det helt.

For at lette denne ændring vil Meta stoppe med at fjerne indhold udelukkende baseret på sin nuværende politik om manipulerede videoer i juli. Denne tidsramme giver brugerne mulighed for at blive fortrolige med selvoffentliggørelsesprocessen, før indhold ikke længere bliver taget ned.

Det er sandsynligt, at skiftet i tilgangen er en reaktion på de stigende krav, der er stillet til Meta vedrørende indholdsmæssig moderation og systemisk risiko. Den Europæiske Unions digitale tjenestelov, der fastsætter regler for Metas sociale netværk, har fået virksomheden til at navigere i den delikate balance mellem at fjerne ulovligt indhold og beskytte ytringsfriheden.

Tilsynsudvalgets kritik spillede en afgørende rolle for Metas beslutning om at revidere sine politikker. Udvalget, der finansieres af Meta, men opererer uafhængigt, undersøgte Metas reaktion på AI-genereret indhold. Især påpegede udvalget inkonsekvensen i Metas politik, der kun anvendte på AI-skabte videoer og lod andre former for manipulerede medier urørte.

Meta har anerkendt udvalgets feedback og har til hensigt at udvide sin tilgang til at omfatte AI-genereret lyd, fotos og andre former for manipulerede medier. Virksomheden planlægger at bruge branche-delt signaler til at registrere AI-indhold, og brugerne vil have mulighed for at angive, om deres upload indeholder AI-genereret indhold.

I tilfælde, hvor digitalt skabt eller ændret medie udgør en betydelig risiko for at vildlede offentligheden om vigtige emner, kan Meta bruge mere fremtrædende mærker for at give yderligere information og kontekst. Målet er at ruste brugerne med de nødvendige redskaber til nøjagtigt at vurdere indholdet og forstå dets kontekst på tværs af forskellige platforme.

Det er vigtigt at bemærke, at Meta ikke vil fjerne manipuleret indhold, både AI-baseret og ikke-AI-baseret, medmindre det overtræder andre politikker såsom valgindblanding eller chikane. I stedet vil virksomheden tilføje informationsmærker og kontekst i situationer, der genererer høj offentlig interesse.

For at sikre nøjagtigheden i indholdet har Meta indgået partnerskab med næsten 100 uafhængige faktatjekkere, der vil hjælpe med at identificere risici forbundet med manipulerede medier. Disse eksterne enheder vil fortsætte med at gennemgå falske og vildledende AI-genereret indhold. Når indholdet er klassificeret som “Falsk eller ændret,” vil Meta implementere algoritmeændringer for at reducere dets rækkevidde og vise et overliggende mærke med yderligere information til brugere, der støder på det.

Mens Meta tager skridt til at imødegå bekymringer omkring AI-genereret indhold og manipulerede medier, sigter det mod at ramme en balance mellem at beskytte mod misinformation og beskytte principperne om ytringsfrihed.

Ændringerne i Metas retningslinjer vedrørende AI-genereret indhold og manipulerede medier er betydningsfulde for branchen og har bredere implikationer for det sociale medielandskab. dette træk kommer, da Meta står over for øget pres fra reguleringsmyndigheder, lovgivere og offentligheden for at tackle spredningen af misinformation og bedragerisk indhold på sine platforme.

I de seneste år har der været voksende bekymring over brugen af AI-teknologi til at skabe deepfake videoer og andre former for manipulerede medier. Deepfakes, især har potentiale for at bedrage offentligheden ved overbevisende at ændre eller overlejre en persons ansigt på en anden krop eller fabrikerende realistisk lyd. Ved at introducere et “Lavet med AI” badge til deepfakes og give yderligere kontekstuel information for manipuleret indhold, sigter Meta mod at øge gennemsigtigheden og gøre det muligt for brugerne at træffe informerede vurderinger om det indhold, de støder på.

Timing af disse ændringer er afgørende, da flere lande er på vej til valg. Med øget mærkning og kontekstualisering af potentielt vildledende indhold sigter Meta mod at minimere påvirkningen af bedragerisk information under betydelige begivenheder som valg. Ved at afsløre, om indholdet er AI-genereret og angive branchestandard AI-billedindikatorer, håber Meta at formindske risiciene forbundet med manipulerede medier, samtidig med at man sikrer, at ytringsfriheden beskyttes.

Denne politikændring er også i overensstemmelse med den Europæiske Unions digitale tjenestelov, der pålægger regler for sociale medieplatforme som Meta. Loven kræver, at platforme fjerner ulovligt indhold prompte, samtidig med at de opretholder principperne for ytringsfrihed. Metas nye tilgang rammer en balance mellem at fjerne skadeligt indhold og fremme transparens, i overensstemmelse med de regulatoriske krav, der er stillet til virksomheden.

Tilsynsudvalgets kritik af Metas tidligere politik om AI-genereret indhold spillede en afgørende rolle i virksomhedens beslutning om at revidere sine retningslinjer. Udvalgets uafhængige undersøgelse understregede behovet for konsistens og udvidet dækning ud over AI-skabte videoer. Ved at inkludere AI-genereret lyd, fotos og andre former for manipuleret medie sigter Meta på at tackle denne uoverensstemmighed og levere en mere omfattende tilgang til at håndtere bedragerisk indhold.

For at sikre nøjagtigheden i indholdet har Meta indgået partnerskab med uafhængige faktatjekkere. Næsten 100 organisationer vil hjælpe Meta med at identificere risici forbundet med manipulerede medier. Ved at udnytte ekspertisen fra disse eksterne enheder sigter Meta på at forbedre opdagelsen af falsk og vildledende AI-genereret indhold. Når indhold bliver markeret som “Falsk eller ændret,” vil Meta implementere algoritmeændringer for at reducere dets rækkevidde og vise yderligere information via overliggende mærker. Denne samarbejdsmulighed afspejler Metas forpligtelse til at tackle misinformation og give brugerne mulighed for at vurdere troværdigheden af det indhold, de støder på.

Som Meta navigerer i udfordringerne vedrørende indholdsmæssig moderation og systemisk risiko, signalerer disse politiske ændringer virksomhedens engagement i at tackle problemet med manipulerede medier ansvarligt. Ved at prioritere transparens, kontekstualisering og samarbejde sigter Meta på at ramme en balance mellem at beskytte…

**FAQ**
– **Hvad er deepfakes?** Deepfakes er manipulerede medier skabt ved hjælp af kunstig intelligens til at overlejre en persons ansigt på en anden krop eller til at fabrikere realistisk lyd.
– **Hvad er AI-genereret indhold?** AI-genereret indhold refererer til medier, der er skabt ved hjælp af kunstig intelligens til at efterligne menneskeligt skabte indhold.
– **Hvad er Metas nye politik om AI-genereret indhold?** Metas nye politik omfatter indførelsen af et “Lavet med AI” badge til deepfakes og yderligere kontekstuel information for manipulerede medier for at øge gennemsigtigheden for brugerne.

*Kilde: [meta.com](https://www.meta.com)*

The source of the article is from the blog qhubo.com.ni

Privacy policy
Contact