Indiase Overheid Herziet Richtlijnen voor AI, Nadruk op Gebruikersbewustzijn en Inhoudsregulering

De Indiase overheid heeft onlangs haar AI-richtlijnen bijgewerkt als reactie op kritiek en een heroverweging van haar benadering van AI-regulering. Het Ministerie van Elektronica en IT heeft de herziene richtlijnen gedeeld met belanghebbenden uit de industrie, waarbij de vereiste voor goedkeuring van de overheid voor het implementeren van een AI-model is komen te vervallen. In plaats daarvan wordt nu van bedrijven geadviseerd om ongeteste en onbetrouwbare AI-modellen te labelen, zodat gebruikers op de hoogte zijn van mogelijke onbetrouwbaarheid.

Deze verandering volgt op forse kritiek van zowel lokale als internationale ondernemers en investeerders op het ministerie. Martin Casado, een partner bij durfkapitaalfirma Andreessen Horowitz, beschreef de oorspronkelijke stap als “een schande.” Het markeert een significante verschuiving van de eerdere hands-off benadering van India ten aanzien van AI-regulering. Minder dan een jaar geleden had het ministerie besloten om AI-groei niet te reguleren, waarbij ze haar belang voor de strategische belangen van India erkende.

Hoewel de nieuwe richtlijnen nog niet officieel online zijn gepubliceerd, heeft TechCrunch een kopie verkregen en de inhoud ervan beoordeeld. Het ministerie verduidelijkte dat hoewel de richtlijnen niet juridisch bindend zijn, ze een visie vormen voor toekomstige regulering en naleving wordt verwacht.

De bijgewerkte richtlijnen benadrukken dat AI-modellen in overeenstemming moeten zijn met de Indiase wetgeving, wat het delen van onwettige inhoud verbiedt. Ze moeten ook vooringenomenheid, discriminatie en bedreigingen voor de integriteit van verkiezingsprocessen vermijden. Intermediairs wordt geadviseerd om ’toestemmingspop-ups’ of vergelijkbare mechanismen te gebruiken om gebruikers expliciet te informeren over de mogelijke onbetrouwbaarheid van door AI gegenereerde output.

Daarnaast blijft het ministerie zich richten op de bestrijding van deepfakes en misinformatie. Intermediairs worden aangemoedigd om inhoud te labelen of in te bedden met unieke metagegevens of identificatiemiddelen, zodat het gemakkelijk te identificeren is. De vereiste voor bedrijven om de “veroorzaker” van specifieke berichten te identificeren is echter komen te vervallen.

Over het algemeen neemt het herziene AI-advies van India een op de gebruiker gerichte benadering aan, waarbij transparantie en inhoudsregulering voorop staan. Door de verantwoordelijkheid te verschuiven naar het labelen van ongeteste AI-modellen en gebruikers te informeren over mogelijke onbetrouwbaarheid, streeft de overheid naar bewustwording en bescherming van burgers tegen schadelijke door AI gegenereerde inhoud.

Veelgestelde vragen

The source of the article is from the blog elblog.pl

Privacy policy
Contact