Revised AI Regulations Propelling Innovation in India

De afgelopen jaren heeft India significante revisies doorgevoerd in haar adviesregeling voor het gebruik van kunstmatige intelligentie (AI) door sociale-mediabedrijven. Deze nieuwe richtlijnen, uitgegeven door het Ministerie van Elektronica en Informatietechnologie (MeitY) van India, zijn bedoeld om transparantie, verantwoording en bewustwording bij gebruikers te waarborgen met betrekking tot de betrouwbaarheid van door AI gegenereerde producten.

Belangrijke veranderingen in het herziene advies zijn onder meer het schrappen van de verplichting voor tussenpersonen en platforms om toestemming van de overheid te verkrijgen voordat ze ‘onvoldoende geteste’ of ‘onbetrouwbare’ AI-modellen inzetten. Het nieuwe advies benadrukt daarentegen dat onvoldoende geteste en onbetrouwbare AI-modellen alleen in India mogen worden gebruikt nadat ze duidelijk zijn gelabeld om gebruikers te informeren over de mogelijke feilbaarheid of onbetrouwbaarheid van de gegenereerde output.

Verder richt het herziene advies zich op het waarborgen dat AI-modellen en algoritmes die door tussenpersonen worden gebruikt, geen vooringenomenheid of discriminatie toestaan en de integriteit van het verkiezingsproces niet in gevaar brengen. Het adviseert ook tussenpersonen om toestemmingspop-ups of vergelijkbare mechanismen te gebruiken om gebruikers expliciet te informeren over de onbetrouwbaarheid van door AI gegenereerde resultaten.

Daarnaast behoudt het ministerie de focus op het identificeren en beperken van deepfakes en misinformatie. Het adviseert tussenpersonen om inhoud te labelen of in te sluiten met unieke metadata of identificatoren om ze gemakkelijk herkenbaar te maken. Het advies bestrijkt verschillende vormen van inhoud, waaronder audio, visueel, tekst en audiovisueel. Het doel is om inhoud te identificeren die mogelijk wordt gebruikt als misinformatie of deepfake, hoewel de term “deepfake” zelf niet wordt gedefinieerd.

Het herziene advies vereist ook dat tussenpersonen metadata configureren op een manier die de identificatie van gebruikers of computerresources mogelijk maakt die verantwoordelijk zijn voor eventuele wijzigingen in de inhoud. Opmerkelijk is dat het advies niet langer de taal bevat die gerelateerd is aan “eerste veroorzaker”.

Het is belangrijk op te merken dat het herziene advies van toepassing is op acht significante socialemediatussenpersonen in India, namelijk Facebook, Instagram, WhatsApp, Google/YouTube (voor Gemini), Twitter, Snap, Microsoft/LinkedIn (voor OpenAI) en ShareChat. Het geldt echter niet voor Adobe, Sarvam AI en Ola’s Krutrim AI.

Het vorige advies van 1 maart kreeg kritiek van veel oprichters van startups, die het als een nadelige zet beschouwden. Het bijgewerkte advies streeft ernaar een balans te vinden door richtlijnen vast te stellen rond grote taalmodellen en AI-modellen die worden gebruikt door prominente sociale mediaplatforms, waarbij wordt erkend dat de modellen zelf niet als tussenpersonen of significante socialemediatussenpersonen worden beschouwd volgens de gedefinieerde criteria.

Terwijl AI-technologie blijft evolueren en een integraal onderdeel van ons dagelijks leven wordt, is het cruciaal voor overheden om effectieve voorschriften vast te stellen die zowel de potentiële voordelen als de risico’s van AI aanpakken. Het herziene advies van MeitY weerspiegelt een veranderend landschap van AI-regelgeving in India, met de nadruk op transparantie en verantwoording bij het gebruik van AI door sociale-mediabedrijven.

FAQs

1. Wat is het doel van het herziene advies over AI in India?
Het herziene advies heeft tot doel richtlijnen en voorschriften te bieden voor het gebruik van kunstmatige intelligentie door sociale-mediabedrijven in India, met als doel transparantie, verantwoording en gebruikersbewustzijn met betrekking tot de betrouwbaarheid van door AI gegenereerde uitvoer.

2. Wat zijn enkele belangrijke veranderingen in het herziene advies?
De belangrijkste veranderingen zijn onder meer het schrappen van de vereiste voor toestemming van de overheid voordat onvoldoende geteste of onbetrouwbare AI-modellen worden ingezet, de nadruk op het labelen van door AI gegenereerde uitvoer om gebruikers te informeren over hun mogelijke feilbaarheid, en de focus op het voorkomen van vooringenomenheid, discriminatie en bedreigingen voor het verkiezingsproces.

3. Op welke socialemediabedrijven is het advies van toepassing?
Het advies is van toepassing op significante socialemediatussenpersonen in India, waaronder Facebook, Instagram, WhatsApp, Google/YouTube (voor Gemini), Twitter, Snap, Microsoft/LinkedIn (voor OpenAI) en ShareChat.

4. Hoe pakt het advies het probleem van deepfakes en misinformatie aan?
Het advies vereist dat tussenpersonen inhoud labelen of insluiten met unieke metadata of identificatoren om de identificatie van deepfakes en misinformatie te vergemakkelijken, waardoor hun gemakkelijke herkenning en beperking wordt gegarandeerd.

5. Waarom kreeg het vorige advies kritiek?
Het vorige advies kreeg kritiek van oprichters van startups die het als nadelig beschouwden voor de ontwikkeling en groei van op AI-gerelateerde technologieën in India.

Sources: Hindustan Times

The source of the article is from the blog xn--campiahoy-p6a.es

Privacy policy
Contact