Inquiétudes croissantes : l’impact de l’IA sur l’exploitation des enfants

Les progrès de la technologie de l’intelligence artificielle (IA) ont apporté de nombreux avantages et avancées dans divers secteurs. Cependant, au milieu de ce progrès, le côté sombre de l’IA a fait surface, car les experts en sécurité des enfants et les chercheurs mettent en garde contre les risques potentiels qu’elle pose en exacerbant l’exploitation en ligne.

Selon le Centre national américain pour les enfants disparus et exploités (NCMEC), il y a eu 4 700 signalements l’année dernière concernant du contenu généré par l’IA qui représente l’exploitation sexuelle des enfants. Ce chiffre alarmant indique l’émergence d’un problème qui devrait s’aggraver à mesure que la technologie de l’IA continue d’évoluer.

Bien que le NCMEC n’ait pas encore divulgué le nombre total de signalements de contenus d’abus d’enfants qu’il a reçus de toutes les sources en 2023, l’organisation a révélé avoir reçu environ 88,3 millions de fichiers en 2022 seulement. Ces signalements proviennent des entreprises d’IA génératrice elles-mêmes, des plateformes en ligne et des individus qui tombent sur de tels contenus perturbants.

Conscient de la nécessité urgente de résoudre ce problème, le NCMEC joue un rôle crucial en tant que centre national de signalement de contenus d’abus d’enfants aux agences chargées de l’application des lois. John Shehan, vice-président principal du NCMEC, a souligné que l’exploitation des enfants facilitée par l’IA se produit indéniablement.

Récemment, les PDG de Meta Platforms, X, TikTok, Snap et Discord ont été interrogés lors d’une audition au Sénat sur la sécurité en ligne des enfants. Les législateurs ont interrogé ces entreprises de médias sociaux et de messagerie sur leurs efforts pour protéger les enfants des prédateurs en ligne.

Les chercheurs de l’Observatoire de l’Internet de Stanford ont publié un rapport en juin, mettant en évidence le potentiel préoccupant pour les auteurs de contenus de pouvoir utiliser l’IA générative pour créer de nouvelles images qui ressemblent étroitement à de vrais enfants. À mesure que ces matériaux générés par l’IA deviennent de plus en plus réalistes, distinguer les vraies victimes des créations de l’IA pose un défi considérable.

Pour lutter contre ce problème croissant, OpenAI, l’organisation derrière le populaire ChatGPT, a mis en place un système de transmission de rapports au NCMEC. De plus, des discussions sont en cours entre le NCMEC et d’autres entreprises d’IA génératrice pour mettre en place des mesures similaires.

L’avènement de l’IA apporte à la fois des innovations et des responsabilités. Alors que la société continue d’adopter la technologie de l’IA, il est crucial de rester vigilant pour répondre aux préoccupations émergentes afin de préserver le bien-être des personnes vulnérables, en particulier les enfants.

FAQ :

Q : Qu’est-ce que le côté sombre de l’IA ?
R : Le côté sombre de l’IA fait référence aux risques potentiels et aux implications négatives de la technologie de l’intelligence artificielle, en particulier dans l’exacerbation de l’exploitation en ligne.

Q : Combien y a-t-il eu de signalements l’année dernière concernant du contenu généré par l’IA représentant l’exploitation sexuelle des enfants ?
R : Selon le NCMEC, il y a eu 4 700 signalements l’année dernière concernant du contenu généré par l’IA représentant l’exploitation sexuelle des enfants.

Q : Combien de fichiers le NCMEC a-t-il reçus en 2022 relatifs aux contenus d’abus d’enfants ?
R : Le NCMEC a reçu environ 88,3 millions de fichiers en 2022 seulement relatifs aux contenus d’abus d’enfants.

Q : Quel est le rôle du NCMEC dans la résolution de ce problème ?
R : Le NCMEC joue un rôle crucial en tant que centre national de signalement de contenus d’abus d’enfants aux agences chargées de l’application des lois.

Q : Quelles entreprises de médias sociaux et de messagerie ont été interrogées lors d’une audition au Sénat sur la sécurité en ligne des enfants ?
R : Les PDG de Meta Platforms, X, TikTok, Snap et Discord ont été interrogés lors d’une audition au Sénat sur la sécurité en ligne des enfants.

Q : Que soulignait le rapport de l’Observatoire de l’Internet de Stanford ?
R : Le rapport de l’Observatoire de l’Internet de Stanford mettait en évidence le potentiel préoccupant pour les auteurs de contenus d’utiliser l’IA générative pour créer de nouvelles images qui ressemblent étroitement à de vrais enfants.

Q : Quelles mesures OpenAI et d’autres entreprises d’IA génératrice ont-elles prises pour lutter contre ce problème ?
R : OpenAI a mis en place un système de transmission de rapports au NCMEC et des discussions sont en cours entre le NCMEC et d’autres entreprises d’IA génératrice pour mettre en place des mesures similaires.

Définitions :

– IA (intelligence artificielle) : Technologie qui permet aux machines d’effectuer des tâches qui nécessiteraient normalement l’intelligence humaine.
– Contenu d’abus d’enfants : Contenu qui représente l’exploitation sexuelle ou les mauvais traitements infligés aux enfants.
– IA génératrice : Intelligence artificielle capable de générer de nouvelles données ou du contenu, tels que des images ou du texte.
– NCMEC (Centre national américain pour les enfants disparus et exploités) : Organisation nationale qui se concentre sur la prévention des enlèvements d’enfants, de l’exploitation sexuelle des enfants et de la recherche d’enfants disparus.
– Entreprises de médias sociaux et de messagerie : Entreprises qui fournissent des plates-formes et des services en ligne permettant aux utilisateurs de se connecter, de communiquer et de partager du contenu avec d’autres.

Liens connexes suggérés :
Centre national américain pour les enfants disparus et exploités
OpenAI
Université Stanford

The source of the article is from the blog revistatenerife.com

Privacy policy
Contact