Å byggje tillit til AI-teknologiar: Ein fleirfasettert tilnærming

AI-spissar samlaste på Maison de la Recherche under ein Alliancy Connect fellesskapsdiskusjon der dei fokuserte på dei viktige komponentane som er nødvendige for å fremje tillit til kunstig intelligens-teknologiane. I labyrinten av teknologisk utvikling har konseptet om tillit til AI blitt mangfasettert, og omfattar ei rekkje eigenskapar.

Å skilje etterleving frå tillit til AI
Etterleving blir ofte sett på som viktig for å byggje tillit, men dei to bør sjåast som skilde, ifølgje Benjamin May, ein grunnleggjande advokat ved Aramis Law Firm. Tillitsevne i AI er ikkje berre basert på regulær etterslepping, men på systemets gyldigheit – evna til å utføre sine oppgåver nøyaktig uten å gi uventa resultat.

Jakta på pålitelege AI-system
Senior AI-eksperten Juliette Mattioli frå Thales, som leier styrekomiteen for Confiance.ai, ei initiativtakar som er djupt involvert i dette temaet, påpeikte at etterleving er ein føresetnad. Utanomrettslege rammeverk understreka ho systemets gyldigheit så vel som stabilitet, sporbarheit og behovet for solid dokumentasjon for at AI skal bli sett på som truverdig.

Næringa sin forsiktige omfavnelse av AI
Næringar som byggjer si konkurransefordel på proprietære prosessar viser både interesse og varsamheit overfor AI-modellar. For sensitive sektorar som helseomsorg som handterer svært sensitive data, er tilbakehaldenheit enda meir tydeleg. Cédric Gouy-Pallier frå CEA-List eksemplifiserte dette med sjukehus si motvilje mot å dele data, men merka seg at distribuert AI potensielt kunne tillate tryggare datatilgang for AI-modellutviklarar.

Tidlege stadier avgjerande for tillit til AI-modellar
I følgje Gouy-Pallier blir tillit skapt frå modellkonseptens byrjing gjennom robuste og pålitelege data-mekanismer. Mattioli understreka behovet for å bygge tillit på kvar stad, sidan den noverande tengeringa til dataopphav, særleg grunna aukinga av generativ AI, kanskje ikkje er tilstrekkeleg.

Generativ AI: Eit kall for pålitelighet
Generativ AI presenterer likevel betydelege utfordringar med å oppnå tillit. Som Mattioli understreka, manglar det ofte gjentakingsevne, transparents og kan produsere grunnlause resultat. Hugo Hamad frå Decathlon Digital peika på ansvaret til AI-produktutviklarar for å sikre etiske praksisar og foreslo at regulering aleine ikkje er nok for å handtere gap i transparents og dokumentasjon gjennom AI-utvikling.

Manøvrere den regulatoriske utfordringane
Fallgruvene i den regulatoriske fokuseren vart tydeleg då generativ AI si moglegheit til å truge mot den generelle databeskyttelsesforordninga (GDPR) vart framheva. Uten tydelege skilnadar mellom ulike typar AI i reguleringar som den komande europeiske AI-lova, er det risiko og forvirring som påverkar brukarane si tillit og beskyttelse. I følgje Benjamin May bør brukarane ha moglegheit til å nekta at data deira bli kopiert av algoritmar, ei meining som vart ekkoa av Hamad, som understreka behovet for næringstyrt initiativ for å handtere tillitsutfordringar.

Den aukande bruken av generativ AI-tek

The source of the article is from the blog windowsvistamagazine.es

Privacy policy
Contact