Tekoälytutkijat vaativat lisää klokuttajansuojaa ja eettisiä periaatteita teknologiassa

Jotkut tekoälyn erikoistutkijat, mukaan lukien ne, jotka ovat yhteydessä ChatGPT:n luojan, OpenAI:n, ovat julkisesti vetoomassa oikeudesta tiedottaa yleisölle tekoälyteknologiaan liittyvistä mahdollisista riskeistä. He korostavat nykyisten ilmiantajansuojelujärjestelmien riittämättömyyttä ja huomauttavat, että ne usein koskevat yritysten laittomia toimia, kun taas tekoälyalalla usein puuttuu tarkkoja oikeudellisia määräyksiä.

Asiantuntijaryhmä totesi, että jälkipelkojen pelko on perusteltu ja viittasivat aiempiin tapauksiin alalla. He kehottivat kehittyneiden tekoälymallien kehittäjiä noudattamaan neljää perusperiaatetta, joista yksi on kieltäytyä kieltämästä työntekijöitä antamasta negatiivisia lausuntoja työnantajistaan.

Paljastusten jälkeen siitä, että OpenAI oli uhannut entisiä työntekijöitään menettää osakeoptioitaan ”mädättämisestä”, toimitusjohtaja Sam Altman pyysi anteeksi ja poisti klausulin. Hän kertoi olleensa tietämätön sen olemassaolosta ja totesi sen olevan koskaan käytössä.

Lisäksi tutkijat pyysivät menettelyä, jolla työntekijät voisivat ilmoittaa aiemmin havaitsemistaan tekoälyohjelmiston riskeistä anonyymisti yritysten hallituksille ja sääntelyviranomaisille. Painotettiin myös, että heillä tulisi olla vapaus tuoda asiat julkisuuteen, jos sisäisiä kanavia ei ole.

Joitain asiantuntijoiden varoittamia tekoälyn nopean kehityksen seurauksena: ohjelmistot voivat karata ihmisten hallinnasta, mikä voi johtaa seurauksiin, kuten virheellisen tiedon leviämiseen, massi-irtisanomisiin ja jopa ihmiskunnan olemassaolon uhkaan. Siksi hallitukset pyrkivät luomaan säädöksiä tekoälyohjelmistojen kehittämiseen.

OpenAI, GPT-ohjelmistosarjan taustalla toimiva yhtiö, katsotaan edelläkävijäksi tällä alalla. OpenAI:n edustaja ilmaisi uskonsa tieteelliseen lähestymistapaan teknologisen riskin suhteen. Nykyiset ja entiset OpenAI:n ja DeepMindin työntekijät ovat anonyymisti liittyneet vetoomukseen eettisistä tekoälykehityksen standardeista. DeepMindin Neel Nanda lisäsi, ettei ollut törmännyt nykyisessäkään tai entisissä työpaikoissaan mihinkään sellaiseen, mikä edellyttäisi hälyttämistä.

Avainkysymykset ja -vastaukset:

Mikä on keskeinen kysymys, jota tekoälyn tutkijat, jotka vaativat ilmiantajansuojelua, käsittelevät?
Keskeinen kysymys on koettu riittämättömyys ilmiantajansuojelussa tekoälyalalla – erityisesti suojelu, joka mahdollistaa työntekijöiden astumisen esiin epäeettisistä käytännöistä tai tekoälyteknologian mahdollisista riskeistä pelkäämättä vastatoimia.

Miksi eettiset periaatteet teknologiassa, erityisesti tekoälyssä, ovat tärkeitä?
Teknologian nopea kehitys usein ylittää sääntelyn, johtaen potentiaalisiin riskeihin, kuten tietojen väärinkäyttöön, yksityisyyden loukkauksiin, päätöksentekoprosessien vääristymiin ja muihin yhteiskunnallisiin vaikutuksiin, joita eettiset periaatteet on suunniteltu lieventämään.

Millaisia huolenaiheita työntekijöillä on ilmiantamisesta seuraavista negatiivisista seurauksista?
Työntekijät pelkäävät, että heitä saattaa odottaa oikeudellisia ja ammatillisia seurauksia, kuten irtisanominen, oikeusjutut, maineeseen kohdistuvat vahingot ja taloudelliset seuraamukset, jos he kertovat huolistaan työnantajiensa käytännöistä.

Mitkä ovat ehdotetut ratkaisut näihin ongelmiin?
Ehdotetut ratkaisut sisältävät menettelyjen luomisen anonyymille raportoinnille yritysten hallituksille ja sääntelyviranomaisille, oikeuden tiedottaa yleisölle, kun sisäiset kanavat eivät toimi, sekä perusperiaatteiden omaksumisen, jotka suojelevat sananvapautta tekniikan alalla.

The source of the article is from the blog maestropasta.cz

Privacy policy
Contact