Nye muligheder med lempelse af tilladelseskravene for AI-modeller

Ministeriet for Elektronik og Informationsteknologi har for nylig udsendt en frisk vejledning, der eliminerer behovet for tilladelse til AI-modeller under udvikling. I stedet fokuserer vejledningen på at finjustere overholdelseskravene i overensstemmelse med IT-reglerne fra 2021. Denne bevægelse sigter mod at imødekomme observationen om, at IT-firmaer og platforme ofte forsømmer deres pligter til omhu, som er angivet i informationsteknologireglerne.

Ifølge den nye vejledning pålægger regeringen nu, at virksomheder mærker indhold, der er genereret ved hjælp af deres AI-software eller platform. Derudover skal de informere brugerne om potentiale fejlbarlighed eller upålidelighed af outputtet, der genereres gennem deres AI-værktøjer. Dette krav om mærkning sigter mod at tackle spredningen af misinformation eller deepfakes, der kan oprettes, genereres eller ændres ved hjælp af sådan software eller computerressourcer.

Desuden fremhæver vejledningen vigtigheden af at konfigurere metadata for at lette identifikationen af brugere eller computerressourcer, der er ansvarlige for eventuelle ændringer foretaget på indholdet. Dette trin sikrer gennemsigtighed og ansvarlighed i tilfælde af ændringer.

Behovet for denne vejledning opstod efter en kontrovers, der involverede Googles AI-platform, der gav tvivlsomme svar vedrørende premierminister Narendra Modi. Subsequent på 1. marts udsendte regeringen en vejledning til sociale medier og andre platforme og opfordrede dem til at mærke underprøvede AI-modeller og forhindre hosting af ulovligt indhold. Ikke-overholdelse af dette direktiv kan resultere i strafferetlige foranstaltninger, som advaret af Ministeriet for Elektronik og Informationsteknologi.

Ved at fjerne kravet om at søge regeringsgodkendelse til at implementere underprøvede eller upålidelige kunstig intelligensmodeller tilbyder den friske vejledning mere fleksibilitet til AI-udvikling. Dog lægger den vægt på betydningen af at mærke sådanne modeller og indhold og sikre, at brugerne er klar over deres potentielle fejlbarlighed eller upålidelighed.

Generelt sigter denne vejledning mod at skabe en balance mellem at fremme AI-innovation og beskytte brugerne mod misvisende information. Ved at placere ansvaret på IT-firmaers og platformes skuldre søger regeringen at tackle bekymringerne om implementering af AI-modeller uden at gå på kompromis med gennemsigtighed og ansvarlighed.

Ofte stillede spørgsmål (FAQ)

The source of the article is from the blog publicsectortravel.org.uk

Privacy policy
Contact