Indisk regering indgår partnerskab med teknologigiganter for at bekæmpe AI-genereret misinformation

Indisk regering har indgået partnerskab med store teknologivirksomheder for at tackle den voksende bekymring om AI-genereret misinformation i det digitale rum. Unionens IT-minister Vaishnaw har bekræftet møderne mellem regeringsembedsmænd og repræsentanter fra Google, Meta (tidligere kendt som Facebook) og andre prominente virksomheder som svar på henvendelser fra Mint.

For at imødegå behovet for foranstaltninger har både Google og Meta offentliggjort retningslinjer for håndtering af AI-ændret indhold og annoncer på forskellige platforme som ChatGPT, Facebook, Google Søgning, Instagram, WhatsApp og YouTube. Disse retningslinjer lægger vægt på vigtigheden af at mærke AI-genereret indhold og begrænse brugen af AI til at producere søgeresultater relateret til politiske figurer, partier og meninger vedrørende de kommende generelle valg i 2024.

Adobe, skaberen af Photoshop, har også taget en forsigtig tilgang til deres generative værktøj kaldet Firefly. Andy Parsons, Senior Director for Adobes indholdsautenticitetsinitiativ, fremhævede virksomhedens engagement i at forhindre manipulation eller skabelse af billeder til politiske kampagner.

Derudover blev der afholdt diskussioner om ansvarligheden hos mellemmændene, med undtagelse af Adobe, i henhold til Information Technology (Intermediary Guidelines and Digital Media Ethics Code) Regelværk, 2021. Ifølge embedsmændene kan disse mellemmænd stilles til ansvar, hvis de ikke formår at dæmme op for spredningen af AI-hjulpet misinformation. Denne bekymring opstår på baggrund af den udbredte spredning af AI i onlineindhold, hvilket får tech-virksomheder til at adoptere teknikker som vandmærkning og metadata tagging.

Indisk regerings evne til at argumentere for censur af specifikke søgeord afspejler en voksende forståelse for AI’s indvirkning på offentlig debat. Regeringer verden over erkender, at der ikke findes en enkelt løsning på at bekæmpe misinformation, især med hensyn til AI’s indflydelse. Denne bevidsthed kan guide regeringsbeslutninger om at forblive årvågen mod AI-drevet misinformation i demokratiske samfund som Indien.

I februar deltog en betydningsfuld konference kaldet Munich Security Conference, hvor der blev underskrevet en ‘Tech Accord to Combat Deceptive Use of AI in 2024 Elections.’ Dette akkord involverede 20 virksomheder, herunder Adobe, Google, Meta, Microsoft, OpenAI og X (tidligere Twitter). Tech Accord foreslog forskellige foranstaltninger såsom implementering af teknologi til at mindske AI-relaterede risici, evaluering af AI-modeller og fremme af robusthed på tværs af brancher.

Specifikke strategier til at tackle valgrelaterede emner blev beskrevet i efterfølgende udtalelser fra Google og Meta. Google forpligtede sig til at offentliggøre brugen af AI i politiske annoncer, mærke AI-genereret indhold på YouTube og implementere restriktioner på valgrelaterede søgeforespørgsler på Gemini, deres generative AI-platform. Meta annoncerede derimod driften af 12 faktatjekhold til uafhængig verifikation af AI-genereret indhold. Ændret politisk indhold blev begrænset på Metas platforme for at minimere dets rækkevidde.

Selvom der blev anmodet om yderligere oplysninger, svarede hverken Google eller Meta på Mints henvendelser vedrørende deres møder med regeringsembedsmænd og ministre.

Juridiske og politiske eksperter har påpeget, at eksisterende bestemmelser i IT-reglerne, 2021, og den indiske straffelov kunne gøre både Big Tech-virksomheder og brugere ansvarlige for at fremme AI-drevet misinformation. Manglende proaktiv bekæmpelse af sådant indhold på deres platforme kunne føre til ansvar under Regel 7 i IT-reglerne, 2021. Manglen på en klar definition for platforme og mellemmænd udgør en udfordring for effektivt at tackle AI-trusler og fastlægge ansvar og ansvarlighed.

FAQ

The source of the article is from the blog anexartiti.gr

Privacy policy
Contact