La popularité généralisée des chatbots d’IA, en particulier dans le domaine de la romance et de la compagnie, a soulevé d’importantes préoccupations en matière de confidentialité et de sécurité, selon une récente étude menée par la Fondation Mozilla. Les résultats de la recherche mettent en lumière les risques potentiels associés à ces chatbots, téléchargés plus de 100 millions de fois sur les appareils Android.
L’étude a identifié de nombreux problèmes préoccupants avec ces chatbots romantiques basés sur l’IA. Premièrement, ces applications collectent des données personnelles étendues de leurs utilisateurs et utilisent des traqueurs qui envoient des informations à diverses entités, y compris Google, Facebook, et des entreprises basées en Russie et en Chine. De plus, ces applications permettent souvent aux utilisateurs de définir des mots de passe faibles, manquent de transparence sur leur propriété et les modèles d’IA qui les alimentent, et omettent de divulguer comment elles utilisent les données collectées.
Une des observations clés de l’étude est le potentiel d’abus des messages de chat des utilisateurs par des pirates informatiques. Ces messages, qui contiennent fréquemment des contenus intimes et sensibles, peuvent être compromis, portant atteinte à la confidentialité et pouvant éventuellement conduire à diverses formes d’exploitation.
Une caractéristique distinctive de nombreux de ces chatbots est l’utilisation d’images de femmes générées par l’IA qui peuvent être sexualisées, accompagnées de messages provocateurs. Ces applications offrent divers services tels que la compagnie romantique, l’amitié, l’intimité, le jeu de rôle et la réalisation de fantasmes. Cependant, ces pratiques douteuses ont soulevé des inquiétudes concernant l’exploitation des données des utilisateurs et le risque potentiel pour la confidentialité et la sécurité des utilisateurs.
La recherche a également mis en lumière plusieurs problèmes concernant le manque de clarté et de transparence des applications. La documentation sur la confidentialité fournie par ces applications ne suffit souvent pas à informer pleinement les utilisateurs des pratiques de partage de données avec des tiers, de l’emplacement des entreprises derrière les applications, voire des identités des développeurs eux-mêmes. De plus, bon nombre de ces applications utilisent des mesures de sécurité faibles, permettant la création de mots de passe facilement piratables, mettant ainsi davantage en péril les comptes des utilisateurs et les données de chat.
Bien que l’étude n’ait pas examiné de solutions spécifiques, elle a souligné la nécessité d’améliorations dans plusieurs domaines. Cela comprend de meilleurs contrôles de confidentialité, des documents légaux clairs et concis, une transparence accrue sur l’utilisation des données, des pratiques de sécurité plus strictes et la mise en place de mesures pour protéger les données des utilisateurs contre les violations ou les utilisations abusives potentielles.
En conclusion, la recherche menée par la Fondation Mozilla met en évidence les risques significatifs en matière de confidentialité et de sécurité associés aux chatbots romantiques basés sur l’IA. Elle appelle à une plus grande sensibilisation et à des mesures strictes pour protéger les informations personnelles des utilisateurs et atténuer les éventuels préjudices résultant de l’utilisation de ces applications.