La menace cachée de l’IA entre les mains des abuseurs d’enfants

Affronter le Côté Obscur de l’Intelligence Artificielle

L’utilisation perturbante de l’intelligence artificielle par les abuseurs d’enfants a mis en lumière un aspect effrayant de la mauvaise utilisation technologique. Ces délinquants ont exploité les capacités de l’IA pour créer des images « deepfake » afin de piéger et contraindre leurs jeunes victimes à produire du contenu abusif, incitant ainsi un cycle périlleux de sextorsion.

Un Front Uni Contre le Contenu Exploitatif Généré par l’IA

Les deux principaux partis politiques du Royaume-Uni, le Labour et les Conservateurs, s’unissent dans leur appel à criminaliser la production de contenu explicite simulé, en particulier ceux utilisant l’IA pour générer des images de personnes réelles. Pourtant, il existe un manque considérable de consensus international sur les réglementations nécessaires pour encadrer ces technologies émergentes.

Mettre un Terme aux Dangers Cachés dans les Ensembles de Données d’Entraînement de l’IA

Récemment, des chercheurs de Stanford ont mis au jour un fait perturbant au sein de l’un des plus grands ensembles de données d’images d’IA, Laion-5B, qui comprenait de nombreuses instances de contenu d’abus sexuel sur mineurs. Cet ensemble de données était vaste, contenant environ 5 milliards d’images, rendant un examen manuel improbable. Cela a incité un balayage automatique, identifiant des photos en corrélation avec les dossiers des forces de l’ordre. Bien que les créateurs de Laion aient retiré l’ensemble de données offensant, les systèmes d’IA formés sur Laion-5B restent souillés par le matériel illicite.

Réguler le Potentiel Préjudiciable de l’IA

Des modèles d’IA renommés tels que Dall-E 3 d’OpenAI et les équivalents de Google sont protégés par leur indisponibilité au téléchargement public, obligeant toutes les demandes de génération d’images à passer par des systèmes propriétaires, permettant un contrôle et un filtrage supplémentaires. En revanche, les projets open source manquent de telles barrières protectrices, les laissant vulnérables à l’exploitation.

Au cœur de ces défis se trouve un dilemme central pour le développement de l’IA : s’assurer que les modèles peuvent identifier et signaler du contenu explicite sans être formés dessus. Les décideurs plaident en faveur d’un équilibre favorisant l’innovation en matière d’IA open source tout en traitant les dilemmes éthiques intenses posés par cette technologie. La lutte contre ces abus d’IA implique non seulement des actions préventives immédiates, mais nécessite également une compréhension plus large des systèmes intelligents complexes.

[…]

The source of the article is from the blog hashtagsroom.com

Privacy policy
Contact