Voittoa tavoittelematon organisaatio haastaa OpenAI:n tietosuojasta EU:ssa

Itävaltalainen voittoa tavoittelematon organisaatio, jonka johdossa on yksityisyydensuojan aktivisti Max Schrems ja joka tunnetaan kampanjastaan ”None of your business”, on aloittanut oikeudellisen toimen OpenAI:ta vastaan väitettyjen GDPR-rikkomusten takia ChatGPT:hen liittyen, joka on tekoälykieli, joka tunnetaan keskusteluvalmiuksistaan. Organisaatio väittää, että ChatGPT on antanut väärennettyjä vastauksia ihmisistä silloin kun sillä ei ole tarkkoja tietoja, mikä johtaa virheellisten tietojen leviämiseen.

Noyb on virallisesti pyytänyt Itävallan tietosuojaviranomaista tutkimaan tapausta ja etsimään mahdollisia sakkoja ja korjaustoimenpiteitä OpenAI:n epäonnistumisen vuoksi käsitellä ongelmaa. Tämä valitus pyrkii ydintoimintaan tekoälykielimalleissa kuten ChatGPT, jotka voivat joskus ennustaa virheellisiä tietoja yrittäessään täyttää esityksiä.

Tarkkojen henkilötietojen toimittaminen on vakava vaatimus EU:n lainsäädännössä vuodesta 1995 lähtien, ja GDPR vahvistaa tätä vaatimusta. OpenAI:n vastaus tietojen saamista ja poistamista koskevaan pyyntöön, joka koski väärennettyä syntymäpäivää, katsottiin tyydyttämättömäksi. GDPR edellyttää, että tietojen käsittelijöiden on annettava yksilöille pääsy heidän henkilökohtaisiin tietoihinsa ja mahdollistettava näiden tietojen poisto, tietyin poikkeuksin. On kuitenkin raportoitu, että OpenAI toimitti vain käyttäjätilitiedot eikä tietoja tietojenkäsittelytoimenpiteistä.

Lisäksi OpenAI:n kanta, jonka mukaan he voisivat estää syntymäpäivän toimittamisen, mutta eivät korjata väärää tietoa, johti turhautumiseen. Yritys vetosi huoliin, että vastausten rajoittaminen saattaisi vaikuttaa kansalaisten tietoihin oikeuksiin, erityisesti kun kyseessä ovat julkisuuden henkilöt.

Valitukseen sisältyy myös OpenAI:n yritysrakenne, ja Noyb kyseenalaistaa OpenAI:n Euroopan toimintojen itsenäisyyden ja jätti valituksen vastuussa olevasta amerikkalaisyrityksestä, joka tekee päätöksiä dataperusteisesti.

Tämä tapaus liittyy laajempaan eurooppalaiseen keskusteluun tekoälyn etiikasta ja yksityisyydestä. Vaikka ChatGPT on voittanut käyttäjät puolelleen vaikuttavilla keskusteluvalmiuksillaan sen lanseeraamisesta lähtien vuonna 2022, se on herättänyt myös huolestumista liittyen tekoälyn riskeihin. Maat kuten Italia ovat ottaneet käyttöön toimenpiteitä kuten väliaikaisia kieltämisiä, ja Ranskan tietosuojaviranomainen tarkastelee lukuisia valituksia, mikä osoittaa lisääntynyttä tarkastelua tekoälysovelluksia kohtaan EU:ssa. Näistä tapahtumista huolimatta on epäilys siitä, kuinka tehokkaita otetut sääntelytoimenpiteet ovat olleet. OpenAI ei kommentoinut pyynnöstä antaa lausuntoa tästä asiasta.

Itävaltalaisen voittoa tavoittelemattoman organisaation aloittama oikeudellinen toimi OpenAI:ta vastaan nostaa esiin useita tärkeitä kysymyksiä:

1. Kuinka tekoälyn luomat vastaukset, jotka liittyvät yksilöiden tietoihin, säännellään GDPR:n mukaisesti?
– GDPR edellyttää, että henkilötiedot tulee olla tarkkoja ja tarvittaessa ajantasaisia. OpenAI:n potentiaalinen ongelma väärien tietojen luomisessa yksilöistä haastaa tämän vaatimuksen.

2. Mitä seurauksia on tietosuojalle, kun tekoälyllä luodut tiedot ovat virheellisiä?
– Tehty tekoälyllä tuotettu virheellinen tieto voi johtaa harhaan ja mahdollisesti aiheuttaa haittaa yksilöiden maineelle tai yksityisyydelle.

3. Mikä on OpenAI:n vastuu tietojenkäsittelyssä ja GDPR:n mukaisen noudattamisen varmistamisessa?
– OpenAI, tietojenkäsittelijänä, on velvollinen helpottamaan EU-kansalaisten pääsyä henkilötietoihinsa ja mahdollistamaan niiden korjaamisen tai poiston pyynnöstä GDPR:n määräysten mukaisesti.

Alaan liittyvät tärkeät haasteet tai kiistakysymykset liittyvät usein tasapainoon teknologisen innovoinnin ja yksityisyysoikeuksien välillä. Esimerkiksi:

– Vaikeus ohjelmoida tekoälyä noudattamaan GDPR:n asettamia tiukkoja yksityisyysstandardeja.
– Varmistaa, että tekoälyn vastaukset ovat tarkkoja eivätkä harhaanjohtavia ilman, että tekoälyn toimintakyky vaarantuu.
– Selvittää tekoälyn kehittäjien ja käyttäjien vastuut ja oikeudelliset velvoitteet eri kansainvälisissä toimivalloissa.

Edut ja haitat voidaan nähdä tekoälyteknologioiden, kuten ChatGPT:n, hyödyntämisessä:

Edut:
– Teollisuus voi käsitellä ja analysoida valtavia tietomääriä nopeammin kuin ihmiset, mikä tarjoaa arvokkaita oivalluksia.
– Teollisuus voi helpottaa monien datavetoisten tehtävien automatisointia, mikä johtaa tehokkuusetuihin.
– Parannettu käyttäjäkokemus vuorovaikutuksessa tekoälymallien kanssa, kuten ChatGPT.

Haitat:
– Tekoäly voi tahattomasti ylläpitää ennakkoluuloja tai tuottaa virheellistä tietoa, mikä voi johtaa negatiivisiin seurauksiin.
– Haasteena on vastata erilaisiin kansainvälisiin tietosuojasäännöksiin, kuten GDPR, teknisesti ja oikeudellisesti.
– Riskinä on kuluttajien luottamuksen väheneminen tekoälyteknologioihin, jos ne liitetään usein yksityisyyshuoliin tai virheellisyyksiin.

Huomioiden laajemman kontekstin, nämä oikeudelliset toimet osoittavat jatkuvaa ja kehittyvää dialogia siitä, miten tekoälyä voidaan sovittaa yhteen tiukkojen tietosuojalakien kuten GDPR:n kanssa. Tämä todennäköisesti jatkuu oikeudellisen ja eettisen tarkastelun kohteena.

Lisätietoja Euroopan yleisestä tietosuoja-asetuksesta löytyy Euroopan komission verkkosivustolta osoitteessa Euroopan komissio.

Jos haluat lisää tietoa tekoälystä ja sen eettisistä vaikutuksista Euroopassa, Euroopan tekoälyallianssi on toinen tärkeä lähde osoitteessa Digital Strategy.

On tärkeää muistaa, että vaikka nämä verkkosivustojen osoitteet on vahvistettu, niiden sisältö kehittyy jatkuvasti. Tarkista aina viimeisin tieto tehdessäsi oikeudellisia tai säännöksiin liittyviä päätöksiä.

The source of the article is from the blog mgz.com.tw

Privacy policy
Contact