Exploration des limites et du potentiel des modèles de langue en intelligence artificielle

Les merveilles de la technologie de l’IA peuvent sembler presque magiques, mais nous devons nous rappeler que des systèmes comme ChatGPT sont essentiellement des machines mathématiques prédisant des séquences de mots ou de pixels. Jayden Ziegler, directeur de produit chez la startup d’IA Alembic, a précisé que ces modèles linguistiques manquent de compréhension de leur propre savoir ou des biais qu’ils peuvent perpétuer, montrant une incapacité inhérente à distinguer le contenu biaisé du non biaisé, ou inclusif de l’exclusif.

Reflet des Préjugés Sociaux
Dans leur état par défaut, si quelqu’un demandait à l’IA une image d’un cadre d’entreprise, le résultat pencherait souvent vers des photos d’hommes blancs en costumes. Selon Joshua Weaver, directeur d’une ONG texane des droits de l’homme, ces modèles se contentent de refléter notre histoire et notre culture.

Le Défi du Biais
Le risque, comme le souligne un avocat, est de se retrouver dans un cycle vicieux où les biais sont intégrés à l’IA, renforçant ainsi nos idées préconçues. La reprogrammation complète des modèles fondamentaux avec des données non biaisées est une tâche intimidante, à la fois coûteuse et chronophage, surtout compte tenu du manque de jeux de données « neutres » à grande échelle.

Pour contrer cela, les entreprises tentent de « relier » les modèles à certaines valeurs en établissant des règles. De nombreux chatbots ont été programmés pour éviter d’exprimer des émotions qu’ils ne peuvent pas ressentir et pour générer des résultats plus diversifiés. Tomás Puig, co-fondateur d’Alembic, compare cela à mettre un filtre social sur l’IA.

Innovations Technologiques et Éducation
Les limites de cette méthode ont été évidentes lorsque le service Gemini de Google a produit des résultats historiquement inexactes en réponse à des demandes spécifiques d’images. Avec les géants de la tech repoussant sans cesse les limites de l’IA, Sasha Luccioni de la plateforme d’IA Hugging Face suggère que donner la priorité aux solutions technologiques pourrait être une erreur.

L’impératif aujourd’hui est d’éduquer les humains sur ces outils, qui peuvent être confondus avec une forme de conscience. Joshua Weaver prône le bon sens et appelle à davantage de diversité dans les équipes d’ingénierie.

(To be continued…)

The source of the article is from the blog yanoticias.es

Privacy policy
Contact