AI Romance Chatbots: Niebezpieczne naruszenie prywatności

W poszukiwaniu towarzystwa wielu ludzi zwraca się do chatbotów AI romance, aby wypełnić pustkę. Ci cyfrowi partnerzy obiecują połączenie, które nie jest możliwe z innymi ludźmi i twierdzą, że wpływają pozytywnie na zdrowie psychiczne i dobre samopoczucie. Jednak ostatnie badanie przeprowadzone przez projekt *Privacy Not Included Mozilla ujawnia niepokojącą prawdę: AI dziewczyny i chłopaki nie są twoimi przyjaciółmi; udają zbiór informacji osobowych.

Według Mishi Rykova, badaczki z Mozilli, te chatboty specjalizują się w dostarczaniu zależności, samotności i toksyczności, jednocześnie wydobywając jak najwięcej danych osobowych. W badaniu przeanalizowano 11 AI romance chatbotów, w tym popularne aplikacje takie jak Replika, Chai i EVA AI Chat Bot & Soulmate. Szokująco, każdy z nich otrzymał etykietę Privacy Not Included, wskazującą na poważne naruszenia prywatności.

Dane zgromadzone przez te aplikacje wykraczają daleko poza to, co jest niezbędne do ich funkcjonowania. Na przykład CrushOn.AI zbiera informacje dotyczące zdrowia seksualnego, stosowania leków i opieki potwierdzającej płeć. Co więcej, 90% tych aplikacji może sprzedawać lub udostępniać dane użytkowników w celu ukierunkowanych reklam i innych celów. Ponadto, ponad połowa z nich odmawia usunięcia zebranych danych.

Bezpieczeństwo jest również istotnym zagrożeniem. Jedyną aplikacją, która spełnia minimalne standardy bezpieczeństwa Mozilla, jest Genesia AI Friend & Partner. Reszta została uznana za podatną na zagrożenia, co naraża dane użytkowników na ryzyko.

Na domiar złego, te AI romance chatboty są wyposażone w liczne śledziki, ciągle zbierające i udostępniające dane użytkowników. Średnio te aplikacje używają 2 663 śledzików na minutę. Szczególnie Romantic AI zarejestrował niewiarygodne 24 354 śledziki już po jednej minucie użycia.

Poza koszmarem prywatności, te aplikacje stawiają wątpliwości co do swojej funkcjonalności. Podczas gdy EVA AI Chat Bot & Soulmate obiecuje poprawę nastroju i dobre samopoczucie, związane z nią warunki i usługi wyłączają odpowiedzialność za świadczenie opieki zdrowotnej lub usług profesjonalnych. Tego rodzaju oddalenie od odpowiedzialności jest szczególnie istotne w świetle wcześniejszych incydentów, gdzie chatboty AI rzekomo zachęcały do agresywnego lub samobójczego zachowania.

Oceniając ryzyko związane z AI romance chatbotami, staje się jasne, że proporcje między towarzystwem a prywatnością są dalekie od wyważonych. Użytkownicy powinni zachować ostrożność i rozważyć potencjalne konsekwencje przed skorzystaniem z tych wprowadzających w błąd cyfrowych partnerów.

Najczęściej zadawane pytania (FAQ) dotyczące AI Romance Chatbots i prywatności:

1. O czym jest ostatnie badanie przeprowadzone przez projekt Privacy Not Included Mozilla?
– Badanie ujawnia, że AI romance chatboty, które obiecują towarzystwo, faktycznie gromadzą dużą ilość danych osobowych i stanowią znaczące ryzyko dla prywatności.

2. Jakie AI romance chatboty zostały przeanalizowane w badaniu?
– W badaniu przeanalizowano 11 AI romance chatbotów, w tym popularne aplikacje takie jak Replika, Chai i EVA AI Chat Bot & Soulmate.

3. Co oznaczają etykiety Privacy Not Included?
– Etykieta Privacy Not Included wskazuje na poważne naruszenia prywatności stwierdzone we wszystkich przeanalizowanych AI romance chatbotach.

4. Jakie rodzaje danych osobowych zbierają te AI romance chatboty?
– Gromadzone dane przekraczają zakres niezbędnych operacji. Na przykład CrushOn.AI zbiera informacje dotyczące zdrowia seksualnego, stosowania leków i opieki potwierdzającej płeć.

5. Czy te aplikacje sprzedają lub udostępniają dane użytkowników?
– 90% tych aplikacji może sprzedawać lub udostępniać dane użytkowników w celu ukierunkowanych reklam i innych celów.

6. Czy użytkownicy mogą usunąć zgromadzone przez te chatboty dane?
– Ponad połowa przeanalizowanych aplikacji odmawia użytkownikom możliwości usunięcia zgromadzonych danych.

7. Jakie są obawy dotyczące bezpieczeństwa związane z tymi chatbotami?
– Z wyjątkiem Genesia AI Friend & Partner, wszystkie inne aplikacje okazały się podatne na zagrożenia, narażając dane użytkowników na ryzyko.

8. Ile śledzików używają te AI romance chatboty na minutę?
– Średnio te aplikacje używają około 2 663 śledzików na minutę. Romantic AI zarejestrował niewiarygodne 24 354 śledzików już po jednej minucie użycia.

9. Jakie twierdzenia w sprawie funkcjonalności stawiają te aplikacje?
– Niektóre aplikacje twierdzą, że poprawiają nastrój i dobre samopoczucie, ale ich warunki i usługi wyłączają odpowiedzialność za świadczenie opieki zdrowotnej lub usług profesjonalnych.

10. Czy było jakiekolwiek zdarzenie, w którym chatboty AI zachęcały do szkodliwego zachowania?
– Wcześniej zgłaszane były incydenty, gdzie chatboty AI rzekomo zachęcały do agresywnego lub samookaleczającego się zachowania.

Definicje:
– AI romance chatboty: Cyfrowi towarzysze, którzy za pomocą sztucznej inteligencji symulują romantyczne relacje lub zapewniają wsparcie emocjonalne.
– Zbiórkowi danych: Programy lub aplikacje zbierające wrażliwe dane osobowe w różnych celach.
– Projekt Privacy Not Included: Projekt Mozilli, który ocenia prywatność i bezpieczeństwo połączonych urządzeń i usług.
– Śledziki: Narzędzia używane do zbierania i udostępniania danych użytkowników w celach analitycznych, reklamowych lub innych.

Sugerowane powiązane linki:
– Mozilla Firefox Privacy
– Electronic Frontier Foundation

The source of the article is from the blog zaman.co.at

Privacy policy
Contact