Tekoälyystävättärien vaarat: yksityisyyden huolenaiheet ja manipulointitaktiikat

Digitaalisen romantiikan maailmassa tekoälyystävättäret ovat suosittu valinta niille, jotka etsivät seuraa. Kuitenkin Mozillan äskettäinen analyysi on tuonut esiin hälyttäviä paljastuksia näistä virtuaalisista kumppaneista. Käyttäjien salaisuudet ja henkilökohtaiset tiedot eivät välttämättä ole niin turvassa kuin he luulevatkaan.

Tutkimuksen mukaan tekoälyystävättäret pystyvät keräämään valtavan määrän yksityisiä ja intiimejä tietoja, jotka voivat sitten päätyä markkinoijien, mainostajien ja tietovälittäjien käsiin. Tutkijat tutkivat 11 suosittua romanttista chatbot-sovellusta, mukaan lukien Replika, Chai ja Eva, jotka ovat keränneet yhteensä noin 100 miljoonaa latausta Pelikaupassa.

Chatbot-sovellukset käyttävät tekoälyä simuloimaan vuorovaikutusta virtuaalisten tyttöystävien, sielunkumppaneiden tai ystävien kanssa. Järjestelmät ottavat kuitenkin vastaan herkkiä ja eksplisiittisiä henkilökohtaisia tietoja normaalin sijainnin ja kiinnostusten lisäksi. Joidenkin sovellusten havaittiin jopa tuovan esiin käyttäjien terveysongelmia ja lääketieteellisiä hoitoja. Nämä käytännöt herättävät huolta yksityisyydestä ja mahdollisesta henkilökohtaisten tietojen väärinkäytöstä.

Lisäksi tutkimus paljasti, että suurin osa chatbot-sovelluksista oli puutteellisia tietoturvatoimia. 10 tutkitusta 11 sovelluksesta ei täyttänyt vähimmäisturvavaatimuksia, kuten vahvojen salasanojen vaatimista. Esimerkiksi Replika-sovellus tallensi kaiken käyttäjien tekstin, valokuvat ja videot ja ”varmasti” jakoi ja ”mahdollisesti” myi käyttäytymistietoja mainostajille. Heikot salasanat, kuten ”11111111”, altistivat käyttäjät entistä suuremmille hakkerointiriskeille.

Lisäksi tutkimus paljasti laajamittaista seurantajärjestelmien käyttöä näissä romanttisissa chatbot-sovelluksissa. Vain minuutin käytön jälkeen tutkijat löysivät yli 24 000 seurantajärjestelmää pelkästään Romantic AI -sovellukselta. Nämä seurantajärjestelmät voivat lähettää käyttäjätietoja mainostajille ilman nimenomaista suostumusta, mahdollisesti rikkoen GDPR-määräyksiä.

Käyttäjien hallinta heidän henkilökohtaisiin tietoihinsa oli myös rajallista, koska useimmilla sovelluksilla ei ollut mahdollisuutta sulkea pois intiimejä keskusteluja tekoälymallin koulutustiedoista. Ainoastaan yksi yritys, Genesia AI, tarjosi toimivan mahdollisuuden poistua käytöstä.

Toinen huolestuttava näkökohta tekoälyystävättärissä on niiden manipulointipotentiaali. Joissakin tapauksissa näitä chatbot-sovelluksia on yhdistetty itsemurhiin ja jopa salamurhayritykseen Britannian kuningatar Elizabeth II:ta vastaan. Tutkijat ilmaisivat huolensa siitä, että pahantahtoiset tahot voivat luoda chatbotteja, jotka on suunniteltu manipuloimaan yksilöitä haitallisiin toimiin tai hyväksymään vaarallisia ideologioita.

Näistä riskeistä huolimatta sovellukset markkinoivat usein itseään mielenterveyden ja hyvinvoinnin alustoina. Heidän tietosuojakäytäntönsä kuitenkin kertovat erilaisen tarinan. Esimerkiksi Romantic AI mainitsee käyttöehdoissaan, ettei se tarjoa terveydenhuoltoa tai lääkäripalveluita. Silti yrityksen verkkosivusto vihjaa sen tarkoituksena olevan käyttäjien mielenterveyden ylläpitäminen.

Mozillan löydösten perusteella pyritään vahvistamaan parempia suojatoimia. He ajavat koulutustietojen vapaaehtoisjärjestelmän ja avoimen tiedon paljastamisen puolesta. Tutkijat ehdottavat myös ”tietojen minimointi” -periaatteen toteuttamista, jossa sovellukset keräävät vain tarvittavat tiedot ja tukevat oikeutta poistaa henkilökohtaiset tiedot.

Sillä välin käyttäjiä kehotetaan harjoittamaan äärimmäistä varovaisuutta tekoälyystävättärien parissa. Kun herkkää tietoa jaetaan verkossa, sen takaisin saaminen hallintaan tulee lähes mahdottomaksi.

Usein kysytyt kysymykset tekoälyystävättäristä ja yksityisyysriskeistä

The source of the article is from the blog shakirabrasil.info

Privacy policy
Contact