Retningsliner for AI og personvern utstedt av EU

Den europeiske databeskyttelsesrettsleggen (EDPS), Wojciech Wiewiórowski, har nyleg detaljert eit grunnleggjande framsteg ved å gje rettleiing om generativ AI for å sikre samsvar med databeskyttelsesregler blant EU-institusjonar. Desse praktiske råda, ifølgje Wiewiórowski, er til for å hjelpe institusjonane med å verne om personleg informasjon og personvern.

Medan ho anerkjenner det massive tempoet med teknologiske framsteg innan AI, skisserer Wiewiórowski nødvendigheita av regelmessig oppdatering av desse retningslinjene, med ein målsetjing om revisjonar minst ein gong kvart 12. månad. Generativ AI, som inkluderer spesialiserte maskinlæringsmodellar som kan produsere ulike utdata som tekst, bilete og lyd, stiller unike utfordringar – særleg når det involverer sensitiv informasjon og individuelle grunnleggjande rettar.

EU-institusjonar blir oppmoda om å ta i bruk generativ AI i levering av offentlege tenester, men dei må gjere det med omtanke. Databeskyttelse skal takast med heilt i starten av ein AI-systemimplementering, noko som inkluderer gjennomføring av ein Data Protection Impact Assessment (DPIA). Dette førebyggjande steget vil hjelpe til med å handtere potensielle truslar og datarelaterte risikoar.

Når det kjem til handsaming av personopplysningar, enten det er under design, utvikling eller validering, må alt skje innanfor rammene av etablerte reglar. EU-institusjonar har ansvaret for å halde bruken av data til eit absolutt minimum, og halde prinsippet om datareduksjon oppe og sikre nøyaktigheit gjennom heile levetida til generativt AI-system.

Når det gjeld å informere publikum, må institusjonar vere opne om korleis og kvifor personopplysningane blir handsama i AI-system. Vidare, når avgjerdstakinga er automatisert, må det takast omsyn for å sørgje for tiltak mot urettferdige, umoralske eller diskriminerande resultat.

Til slutt er det avgjerande å ta tak i skjevheter og garantere rettferdig behandling for å unngå diskriminerande praksisar. EU-einingar har til oppgåve å innføre rett tekniske, organisatoriske og prosedyretiltak for å sikre både dei involverte dataa og rettane til individua. Med tanke på dei auka risikoane for datasikkerheit gjennom AI, må institusjonane praktisere årvåken risikofølsomheit og risikoredusering.

Privacy policy
Contact