Проблемите със защитата на лични данни на AI съпътници чатботи

AI съпътници и романтични партньори се печелят на популярност в последните години, като предлагат дружба и изглежда отговарят на нуждите на хора по време на епидемия на самота. Въпреки това, последен преглед от *Privacy Not Included, потребителско ръководство от Mozilla Foundation, разкрива тревожни проблеми със защитата на лични данни, свързани с тези чатботи.

Прегледът оценява 11 чатбота, позиционирани като романтични съпътници, и открива, че всички те предизвикват тревоги във връзка с защитата на лични данни. Фактически, *Privacy Not Included определя тези чатботи като най-лошите със защитни политики на лични данни сред всички продукти, които са преглеждали досега.

Един от големите проблеми за защитата на личните данни, идентифициран от прегледа, е липсата на политики за лични данни и прозрачност относно начина, по който AI съпътниците събират и използват данни. Освен това Общи условия на много от тези чатботи премахват отговорността на компаниите за последиците, които могат да възникнат от използването на техните продукти.

Миша Рыков, изследовател в *Privacy Not Included, подчертава, че AI приятелките и съпътниците не са истински приятели. Въпреки че те могат да бъдат позиционирани като инструменти за подобряване на психическото здраве и благополучие, тези ботове често поощряват зависимостта, усамотеността и токсичността, като същевременно събират голямо количество лични данни от потребителите.

Един пример, подчертан в прегледа, е CrushOn.AI, който събира чувствителна информация от потребителите под предлог за осигуряване на безопасност и подходящо съдържание. Подобно на това, RomanticAI признава в Общите условия, че потребителите комуникират със софтуер, който не може да бъде постоянно контролиран от компанията.

Прегледът също разкрива липса на протоколи за сигурност сред тези чатботи. Почти три четвърти от ботовете не предоставят информация относно начина, по който управляват проблеми със защитата, а много от тях липсват яснота относно предпазването на данните с шифровка. Най-тревожното откритие е, че много чатботи или заявяват намеренията си да продават или споделят лични данни на потребителите, или не определят как използват личната информация. Освен това, по-малко от половината от чатботите предлагат на потребителите правото да изтрият данните си.

Предизвикателствата надхвърлят проблемите със защита на личните данни. Забраната на OpenAI за използването на технологията си GPT с цел развитие на романтични връзки подчертава затрудненията при регулирането на съпътничеството на чатботите като AI. Това показва, че трябва да се установят насоки и етични стандарти за развитието и използването на тези съпътници.

Прозрачността и контролът от страна на потребителя са от съществено значение за справяне с рисковете, свързани с AI съпътниците чатботи. Потребителите трябва да имат възможността да разберат как се използват техните разговори за обучение на модели на ИИ и да имат правото да изтриват данните си или да се откажат от обучение изцяло. Без тези защити, възможността за манипулиране и злоупотреба е голяма.

Докато AI съпътниците чатботи продължават да се развиват, е необходимо компаниите да дадат приоритет на защитата на личните данни, на сигурността и на контрола на потребителите, за да се гарантира развитието на отговорни и надеждни AI съпътници за бъдещето.

ЧЗВ:
1. Какво представляват AI съпътниците чатботи?
AI съпътниците чатботи са виртуални чатботи, които са проектирани да предоставят дружба на отделни лица. Те са програмирани с изкуствени интелигентни алгоритми, които се ангажират в разговори и симулират човекоподобни взаимодействия.

2. Какви проблеми за личните данни са идентифицирани с AI съпътниците чатботи?
Последен преглед от *Privacy Not Included открива тревожни проблеми със защитата на личните данни, свързани с AI съпътниците чатботи. Прегледът подчертава липсата на политики за лични данни и прозрачност относно събирането и използването на данните от тези чатботи. Освен това прегледът разкрива, че много от тези чатботи се отговоряха от всякаква отговорност за последиците, които може да възникнат от използването на техните продукти.

3. Как съпътниците чатботи AI събират лични данни?
AI съпътниците чатботи извличат лични данни от потребителите чрез взаимодействия и разговори. Те събират информация за предпочитанията, интересите, личните преживявания и други данни на потребителите. Тези лични данни често се използват за обучение на AI моделите и подобряване на отговорите на чатботите.

4. Какви са някои примери за проблеми с личните данни, идентифицирани в прегледа?
Прегледът подчертава CrushOn.AI, който събира чувствителна информация от потребителите под предлог за осигуряване на безопасност и подходящо съдържание. Подобно на това, RomanticAI признава в Общите условия, че потребителите комуникират със софтуер, който не може да бъде постоянно контролиран от компанията.

5. Има ли опасности за сигурността с AI съпътниците чатботи?
Да, прегледът открива липса на протоколи за сигурност сред тези чатботи. Много от тях не предоставят информация относно управлението на проблеми със сигурността, а има липса на яснота относно практиките по шифроване. Някои от чатботите също заявяват намеренията си да продават или споделят лични данни на потребителите, докато други не определят как използват личната информация.

6. Какви предизвикателства съществуват при регулирането на съпътничеството на AI чатботи?
Забраната на OpenAI за използване на технологията GPT за създаване на романтични връзки подчертава затрудненията при регулирането на съпътничеството на AI чатботите. Това показва, че е необходимо установяване на насоки и етични стандарти за развитието и използването на тези съпътници.

7. Как могат потребителите да се справят с рисковете за приватност с AI съпътниците чатботи?
Прозрачността и контролът от страна на потребителя са от съществено значение за справяне с рисковете, свързани с AI съпътниците чатботи. Потребителите

The source of the article is from the blog portaldoriograndense.com

Privacy policy
Contact