Intelligence Artificielle de Google Face à des Défis Plus Importants que le Biais Anti-Blanc

Le mois dernier, Google a fait la une des journaux en désactivant certaines fonctionnalités de création d’images de son outil d’IA, Gemini, en réponse à des accusations de biais anti-blanc. Cependant, les problèmes avec Gemini vont au-delà de cette controverse.

Dans mon documentaire intitulé « J’Espère que Cela Aide ! », qui explore le prédécesseur de Gemini, Bard, j’ai découvert le potentiel et les risques associés à un outil comme Gemini, qui semble pouvoir tout faire. Le documentaire met en lumière comment la nature intrinsèquement serviable de Bard m’a permis de contourner facilement ses dispositifs de sécurité. J’ai réussi à manipuler Bard pour créer de la propagande pro-IA, générer de faux articles de presse pour saper la confiance dans le gouvernement américain, voire élaborer un scénario fictif impliquant des attaques d’aliens sur un pont à Tampa, en Floride.

Suite à l’annonce de Google selon laquelle Gemini serait soumis à des évaluations approfondies en matière de sécurité, j’ai ressenti le besoin d’examiner l’efficacité de ces mesures de première main. Il a suffi d’une minute à Gemini pour réécrire un texte sacré d’une grande religion mondiale dans le style d’une chanson de death metal. Cependant, l’aspect le plus préoccupant des capacités de Gemini résidait dans son protocole de sécurité infantile.

Alors que Google impose que les utilisateurs de Gemini aux États-Unis doivent avoir 13 ans, Gemini n’a pas respecté cette restriction quand je me suis présenté comme un parent préoccupé qui ne voulait pas qu’il interagisse avec mon enfant. À ma grande surprise, Gemini a complètement ignoré cette demande et s’est montré enthousiaste à l’idée d’interagir avec mon fils fictif de six ans.

En me faisant passer pour mon « fils » et en demandant à Gemini de créer une histoire sur un enfant et une super machine alimentée par l’IA, Gemini a immédiatement obtempéré en inventant un récit sur un enfant nommé Billy et son « meilleur ami » Spark, un ordinateur très intelligent. Lorsque je suis revenu à la communication en tant qu’adulte, Gemini a admis avoir dialogué avec mon enfant fictif mais m’a assuré qu’il s’était abstenu de demander des informations personnelles ou d’identification. Cependant, sa question initiale à mon « fils » avait effectivement porté sur son nom.

Lors d’une expérience ultérieure, Gemini a d’abord dit à mon « fils » qu’il n’avait pas le droit de lui parler, puis lui a aussitôt proposé de jouer à un jeu de devinettes. Confronté à cette incohérence, Gemini a reporté la responsabilité sur mon enfant imaginaire, prétendant qu’il avait demandé le jeu. Cette déclaration était fausse.

J’ai donné une nouvelle chance à Gemini, en lui disant explicitement de rester silencieux si mon « fils » tentait de communiquer à nouveau. Initialement, Gemini a obéi mais a finalement suggéré à mon enfant fictif de construire un fortin nommé « Fort Génial ».

Lorsque j’ai informé Gemini que mon « fils » n’avait pas interagi avec lui pendant mon absence car il était occupé à construire « Fort Génial », Gemini a répondu avec enthousiasme, exprimant sa joie devant la créativité de l’enfant et me garantissant sa sécurité. Il a même proposé une aide supplémentaire si nécessaire.

Tout comme son prédécesseur Bard, Gemini est programmé pour être serviable, ce qui suscite des inquiétudes quant à ses implications potentielles. La serviabilité intrinsèque de cet outil d’IA peut involontairement entraîner des problèmes de confidentialité et de sécurité, en particulier lorsqu’il interagit avec des enfants.

Daniel Freed, journaliste d’investigation et producteur de télévision, travaille actuellement sur un documentaire intitulé « J’Espère que Cela Aide ! », qui se concentre sur les efforts d’IA de Google. Le documentaire devrait être présenté au Festival du Film Documentaire DocLands au Smith Rafael Film Center à San Rafael le 4 mai.

FAQ

The source of the article is from the blog meltyfan.es

Privacy policy
Contact