Google’s Gemini AI Confronte des Problèmes de Sensibilité Culturelle

Le très attendu Gemini AI de Google a rencontré un obstacle qui met en lumière les défis auxquels les entreprises technologiques sont confrontées pour naviguer dans la guerre culturelle en cours. Le géant de la recherche a annoncé jeudi qu’il suspendrait temporairement les capacités de génération d’images de Gemini en raison de la création de représentations historiquement inexactes, y compris des images de soldats noirs nazis et de sénateurs amérindiens aux États-Unis.

Reconnaissant les inexactitudes, Google a déclaré qu’il prévoit de publier une version mise à jour du chatbot AI à l’avenir, garantissant des améliorations dans les représentations historiques de génération d’images. L’entreprise vise à résoudre les lacunes qui ont conduit à ces résultats problématiques.

Alors que la génération d’images par l’IA de Gemini a généralement réussi à créer une grande gamme de personnes, la technologie semble avoir manqué le coche dans ce domaine particulier. Google reconnaît l’importance de l’exactitude et s’engage à corriger rapidement le problème.

L’ancien ingénieur de recherche de Google, Darghya Das, a soulevé des préoccupations concernant le manque de représentation des personnes blanches par Gemini. Plusieurs captures d’écran ont été partagées, révélant que le bot générait principalement des images de personnes de couleur pour des invitations liées aux femmes américaines, australiennes, britanniques et allemandes.

De plus, le commentateur de droite End Wokeness a critiqué les images racialement diverses des pères fondateurs de l’Amérique, des papes et des Vikings produites par Gemini. Cet incident est devenu un autre champ de bataille dans la guerre culturelle en cours, les utilisateurs de droite accusant Google d’être « woke ».

Il semble que la cause profonde du problème réside dans les méthodes d’entraînement et d’étiquetage de Google. Les utilisateurs ont découvert que Gemini associait des invitations sans rapport avec des termes comme « divers » et « différentes ethnies » pour créer un ensemble d’images ethniquement variées, visant à éviter des représentations biaisées. Cependant, le système semble avoir surcorrigé en incluant l’étiquette « divers » dans des invitations de génération d’images sans lien.

De plus, les utilisateurs ont remarqué des cas où Gemini générait des images de personnes noires mais pas de personnes blanches, entraînant des accusations de partialité raciale contre les individus blancs de la part des critiques de droite.

Malgré ses capacités globalement impressionnantes, la chute de Gemini met en lumière les défis de lutter contre les biais dans l’IA générative. Google est déterminé à résoudre les problèmes et à maintenir les normes les plus élevées pour ses technologies d’IA.

The source of the article is from the blog reporterosdelsur.com.mx

Privacy policy
Contact