Chercheurs démentent la théorie sur l’émergence soudaine des capacités avancées de l’IA.

Progrès des Modèles de Langage Montre des Améliorations Prévisibles

Un projet significatif, nommé « Beyond the Imitation Game benchmark » (BIG-bench), a eu lieu il y a deux ans avec une équipe de 450 chercheurs listant 204 tâches pour tester les performances des grands modèles de langage (LLMs), tels que celui utilisé dans ChatGPT. Les résultats de leur étude ont suggéré une amélioration progressive des performances à mesure que la taille des modèles augmentait.

Performance Incohérente des Modèles d’IA : Une Question de Mesure ?

Bien que, pour la plupart, l’expansion des modèles ait été corrélée avec des améliorations de performances, toutes les tâches ne suivaient pas cette tendance. Certaines tâches qui montraient auparavant à peine une avancée de capacité ont soudainement démontré des progrès significatifs. Ce phénomène de montées inattendues en capacité a été nommé « comportement de percée » par les chercheurs et comparé à des transitions de phase physiques, telles que l’eau se transformant en glace, par d’autres. Dans un article publié en août 2022, les chercheurs ont souligné l’importance de ce ‘comportement émergent’ dans les discussions sur la sécurité, les possibilités et les risques de l’IA.

Stanford Remet en Question la Perspective sur les Capacités « Émergentes » de l’IA

Cependant, les découvertes plus récentes d’une équipe de chercheurs de l’Université Stanford contestent les évaluations antérieures. Ils affirment que la manifestation apparemment soudaine de ces capacités pourrait simplement être un problème de mesure. Ils avancent que la performance des LLMs n’est pas imprévisible ou instantanée, mais plutôt plus prévisible que ne le pensait précédemment. Les chercheurs soutiennent que les méthodes utilisées pour mesurer les performances sont aussi influentes que les capacités des modèles eux-mêmes.

Ostensible Augmentation des Performances Trouvée Être Plus Graduelle Que « Émergente »

Les grands modèles de langage sont devenus un focus principal uniquement après avoir atteint des tailles vraiment considérables. Comme ces modèles sont entraînés sur des corpus massifs de textes, comprenant des livres, des recherches sur le web et Wikipédia, ils développent des connexions complexes entre des mots couramment utilisés dans des contextes similaires. Ce sont ces connexions qui déterminent leur performance dans diverses tâches. Les chercheurs de Stanford reconnaissent l’amélioration d’efficacité qui accompagne l’agrandissement, mais soutiennent que cette amélioration n’est pas toujours instantanée ou émergente ; elle pourrait plutôt résulter du choix de mesures de performance ou d’une évaluation insuffisante.

Changement de Méthodologie Offre un Nouveau Regard sur les Capacités de l’IA

Ce changement de méthodologie de recherche a suscité de nouvelles idées, incitant l’équipe de Stanford à réviser la façon dont les performances sont évaluées. En intégrant la correction partielle dans l’évaluation, ils ont montré qu’une augmentation des paramètres du modèle mène à une amélioration graduelle et prévisible du nombre de chiffres qu’un LLM peut prédire correctement, au lieu d’un saut émergent. Alors que certains scientifiques argumentent encore pour l’imprévisibilité de certaines capacités à certains seuils, l’étude de Stanford indique que des métriques appropriées peuvent donner une image différente des capacités des LLM.

Clarifications Importantes sur le Sujet

Les avancées en intelligence artificielle (IA), en particulier dans le contexte des Grands Modèles de Langage (LLMs) comme ChatGPT, ont des implications pour de nombreuses industries et notre compréhension du développement de l’IA. Deux questions importantes dans ce domaine sont :

1. Le développement des capacités de l’IA est-il graduel ou peut-il impliquer des sauts émergents soudains ?
Les chercheurs de Stanford remettent en question la théorie des sauts émergents dans les capacités de l’IA, postulant plutôt qu’avec de meilleures méthodes d’évaluation, ces avancées semblent être graduelles et prévisibles.

2. Quels sont les principaux défis ou controverses associés à la mesure des progrès de l’IA ?
Il y a des débats sur les métriques appropriées pour évaluer les performances des LLMs et sur la capacité de ces modèles à vraiment présenter un comportement émergent.

Le sujet comporte certains avantages et inconvénients :

Avantages :
– L’amélioration des méthodes d’évaluation mène à une compréhension plus précise du développement de l’IA.
– Les améliorations prévisibles permettent une meilleure planification et intégration des systèmes d’IA dans diverses applications.
– Cela soutient une conversation plus nuancée sur la sécurité de l’IA en démontant le mythe de pics d’aptitudes soudains et ingérables.

Inconvénients :
– L’accent mis sur le gradualisme pourrait minimiser les cas où les capacités de l’IA présentent des sauts inattendus.
– La dépendance aux métriques de performance pourrait ne pas capturer toute l’étendue des capacités ou des limites de l’IA.
– Le débat peut causer de la confusion parmi les parties prenantes concernant la préparation ou les risques de l’IA, influençant ainsi les décisions de financement et de réglementation.

Pour explorer davantage les avancées et controverses en matière d’IA, vous voudrez peut-être visiter le site web de l’Université Stanford, où une grande partie de la recherche défiant la théorie de l’émergence soudaine a été menée, ou étudier l’Institut de Recherche sur l’Intelligence Artificielle (MIRI), qui se concentre sur la sécurité et les capacités de l’IA. Assurez-vous toujours que l’URL est valide avant de visiter un site web.

The source of the article is from the blog radardovalemg.com

Privacy policy
Contact