Nieuwe richtlijnen voor AI: Labeling AI-gegenereerde inhoud niet langer vereist

De wereld van Kunstmatige Intelligentie (AI) technologie in India evolueert opnieuw nu de overheid de vergunningseis voor ongeteste AI-modellen intrekt. In een nieuwe richtlijn uitgegeven door het Ministerie van Elektronica en IT, zijn de nalevingsvereisten verfijnd volgens de IT-regels van 2021. Echter, de nadruk op het labelen van AI-gegenereerde inhoud blijft behouden.

Een eerdere richtlijn van 1 maart 2024 vereiste van bedrijven om goedkeuring van de overheid te verkrijgen voordat ze ongeteste of onbetrouwbare AI-modellen implementeerden. De nieuwe richtlijn vervangt deze eis en verwijdert de noodzaak van toestemming tijdens de ontwikkeling van AI-modellen.

Het Ministerie heeft vastgesteld dat IT-bedrijven en platforms vaak hun zorgvuldigheidsplicht verwaarlozen, zoals uiteengezet in de regels van 2021 inzake informatietechnologie (bemiddelaarsrichtlijnen en ethische gedragscode voor digitale media). Om dit probleem aan te pakken, benadrukt de overheid het belang van het labelen van AI-gegenereerde inhoud.

Bedrijven die AI-software of platforms gebruiken, zijn nu verplicht om inhoud die is gegenereerd met behulp van AI-tools te labelen en gebruikers te informeren over de potentiële feilbaarheid of onbetrouwbaarheid van de output. Deze inclusieve benadering heeft tot doel de verspreiding van misinformatie of deepfakes te voorkomen.

De richtlijn stelt: “Wanneer een tussenpersoon via zijn software of een ander computersysteem synthetische creatie, generatie of wijziging van tekst, audio, visuele of audiovisuele informatie toestaat of vergemakkelijkt, op zo’n manier dat dergelijke informatie mogelijk kan worden gebruikt als misinformatie of deepfake, wordt geadviseerd dat dergelijke informatie die is gemaakt, gegenereerd of gewijzigd via zijn software of een ander computersysteem, wordt gelabeld…dat dergelijke informatie is gemaakt, gegenereerd of gewijzigd met behulp van het computersysteem van de tussenpersoon.”

Bovendien, als gebruikers wijzigingen aanbrengen in de inhoud, moet de metadata worden geconfigureerd om de identificatie van de gebruiker of het verantwoordelijke computersysteem voor de wijziging mogelijk te maken.

Nu de overheid streeft naar transparantie en verantwoording in de AI-sector, komt deze richtlijn na een controverse rond de reactie van het AI-platform van Google op vragen met betrekking tot premier Narendra Modi. De snelle actie van de overheid benadrukt de noodzaak om sociale media en andere platforms te reguleren, waarbij het labelen van ongeteste AI-modellen en het voorkomen van de hosting van onwettige inhoud centraal staan.

FAQ:

V: Waarom heeft de overheid de vergunningseis voor ongeteste AI-modellen laten vallen?
A: De overheid streeft ernaar het ontwikkelingsproces te stroomlijnen door de noodzaak van toestemming tijdens de ontwikkeling van AI-modellen weg te nemen en de nalevingsvereisten af te stemmen op de IT-regels van 2021.

V: Wat is de belangrijkste focus van de nieuwe richtlijn?
A: De belangrijkste focus ligt op het labelen van AI-gegenereerde inhoud om gebruikers te informeren over de potentiële feilbaarheid of onbetrouwbaarheid van de output.

V: Hoe pakt de richtlijn het probleem van misinformatie en deepfakes aan?
A: Door bedrijven te verplichten AI-gegenereerde inhoud te labelen, heeft de richtlijn tot doel de verspreiding van misinformatie en deepfakes te voorkomen.

V: Welke acties moeten worden ondernomen als gebruikers wijzigingen aanbrengen in de AI-gegenereerde inhoud?
A: De metadata moet worden geconfigureerd om de gebruiker of het verantwoordelijke computersysteem voor de wijziging te identificeren.

V: Waarom benadrukt de overheid transparantie en verantwoording in de AI-sector?
A: De nadruk van de overheid op transparantie en verantwoording is om sociale media en andere platforms te reguleren, de hosting van onwettige inhoud te voorkomen en vertrouwen in de AI-sector te behouden.

Gerelateerde links:

– Ministerie van Elektronica en IT: [URL]

Definities:

– Kunstmatige Intelligentie (AI): Technologie die machines of computersystemen in staat stelt menselijke intelligentie na te bootsen en taken uit te voeren die typisch menselijke intelligentie vereisen, zoals probleemoplossing, patroonherkenning en besluitvorming.
– Nalevingsvereisten: Regels en voorschriften waaraan organisaties moeten voldoen om bepaalde normen te halen en wettelijk en ethisch te handelen.
– IT-regels van 2021: Verwijst naar de regels inzake informatietechnologie (bemiddelaarsrichtlijnen en ethische gedragscode voor digitale media) van 2021, die richtlijnen en regels uiteenzetten voor tussenpersonen, sociale mediaplatforms en digitale media.
– AI-gegenereerde inhoud: Inhoud, zoals tekst, audio, visuele of audiovisuele informatie, die is gemaakt, gegenereerd of gewijzigd met behulp van AI-tools of platforms.
– Feilbaarheid: De potentiële mogelijkheid tot fouten of vergissingen.
– Onbetrouwbaarheid: Gebrek aan betrouwbaarheid of betrouwbaarheid.
– Metadata: Beschrijvende gegevens die informatie verschaffen over andere gegevens, in dit geval informatie over de AI-gegenereerde inhoud, zoals de bron of oorsprong ervan.

The source of the article is from the blog combopop.com.br

Privacy policy
Contact