Transistors neuromorphiques : Repenser la conception des circuits pour une IA plus efficace

L’intelligence artificielle (IA) et la pensée humaine fonctionnent tous les deux grâce à l’électricité, mais c’est là que les similitudes s’arrêtent. Alors que l’IA repose sur des circuits en silicium et en métal, la cognition humaine émerge d’un tissu vivant complexe. Les différences fondamentales d’architecture entre ces systèmes contribuent à l’inefficacité de l’IA.

Les modèles actuels d’IA fonctionnent sur des ordinateurs conventionnels, qui stockent et calculent les informations dans des composants séparés, ce qui entraîne une consommation énergétique élevée. En fait, les centres de données représentent à eux seuls une part significative de la consommation mondiale d’électricité. Cependant, les scientifiques cherchent depuis longtemps à développer des dispositifs et des matériaux capables de reproduire l’efficacité de calcul du cerveau.

Maintenant, une percée réalisée par une équipe de chercheurs dirigée par Mark Hersam à l’Université de Northwestern nous rapproche de cet objectif. Ils ont repensé le transistor, un élément fondamental de la construction des circuits électroniques, afin qu’il fonctionne davantage comme un neurone. En intégrant la mémoire au traitement, ces nouveaux transistors synaptiques en moiré réduisent la consommation d’énergie et permettent aux systèmes d’IA d’aller au-delà de la simple reconnaissance de motifs.

Pour y parvenir, les chercheurs se sont tournés vers des matériaux bidimensionnels aux arrangements atomiques uniques qui créent des structures superposables fascinantes appelées superstructures en moiré. Ces matériaux permettent un contrôle précis du flux de courant électrique et peuvent stocker des données sans alimentation électrique continue grâce à leurs propriétés quantiques spéciales.

Contrairement aux tentatives précédentes de transistors en moiré, qui ne fonctionnaient qu’à des températures extrêmement basses, ce nouveau dispositif fonctionne à température ambiante et consomme 20 fois moins d’énergie. Bien que sa vitesse doive encore être entièrement testée, sa conception intégrée suggère qu’il sera plus rapide et plus économe en énergie que l’architecture informatique traditionnelle.

L’objectif ultime de cette recherche est de rendre les modèles d’IA plus proches du cerveau humain. Ces circuits semblables au cerveau peuvent apprendre à partir de données, établir des connexions, reconnaître des schémas et établir des associations. Cette capacité, appelée apprentissage associatif, pose actuellement problème aux modèles d’IA traditionnels dotés de composants de mémoire et de traitement distincts.

En utilisant cette nouvelle architecture semblable au cerveau, les modèles d’IA peuvent mieux distinguer le signal du bruit, ce qui leur permet d’effectuer des tâches complexes. Par exemple, dans les véhicules autonomes, cette technologie peut aider les pilotes d’IA à naviguer dans des conditions routières difficiles et à différencier les obstacles réels des objets non pertinents.

Bien qu’il reste encore du travail à faire pour développer des méthodes de fabrication évolutives pour ces transistors neuromorphiques, le potentiel de systèmes d’IA plus efficaces et puissants est prometteur. En comblant l’écart entre l’IA et la cognition humaine, cette recherche ouvre des possibilités passionnantes pour l’avenir de l’intelligence artificielle.

L’intelligence artificielle (IA) désigne la capacité des machines ou des systèmes informatiques à effectuer des tâches qui nécessitent généralement une intelligence humaine, telles que l’apprentissage, la résolution de problèmes et la prise de décision.

La cognition humaine fait référence aux processus mentaux et aux capacités qui permettent aux êtres humains d’acquérir des connaissances, de comprendre, de percevoir, de réfléchir et de communiquer.

Le circuit en silicium et en métal fait référence aux matériaux et composants utilisés dans les ordinateurs traditionnels pour traiter et transmettre des signaux électriques.

L’architecture, dans ce contexte, fait référence à la structure et à l’organisation d’un système ou d’un dispositif.

La consommation d’énergie fait référence à la quantité d’énergie utilisée par un système ou un dispositif pour effectuer ses fonctions.

Les centres de données sont des installations qui abritent des systèmes informatiques et des équipements, y compris des serveurs et des espaces de stockage, dans le but de stocker, traiter et distribuer de grandes quantités de données.

Les superstructures en moiré sont des motifs fascinants créés par les arrangements atomiques uniques de certains matériaux bidimensionnels.

Les propriétés quantiques font référence aux propriétés et comportements de la matière et de l’énergie au niveau atomique et subatomique, tels que décrits par les principes de la mécanique quantique.

La reconnaissance de motifs fait référence à la capacité d’un système ou d’un dispositif à identifier et distinguer des motifs ou des caractéristiques dans les données.

Le transistor est un élément fondamental de la construction des circuits électroniques, responsable du contrôle du flux de courant électrique et de l’amplification ou de la commutation des signaux.

La mémoire, dans ce contexte, fait référence à la capacité d’un système ou d’un dispositif à stocker et récupérer des informations.

Le traitement fait référence à la manipulation et au traitement des données ou des informations par un système ou un dispositif.

L’apprentissage associatif fait référence à la capacité d’un système ou d’un dispositif à établir des connexions et des associations entre différents concepts ou données.

Le signal et le bruit font référence à la distinction entre les informations significatives (signal) et les données indésirables ou parasitaires (bruit).

Les méthodes de fabrication évolutives font référence aux processus et techniques qui peuvent être facilement étendus ou adaptés pour produire de plus grandes quantités d’un produit ou d’un dispositif.

Les transistors neuromorphiques sont des transistors conçus pour imiter l’architecture et les fonctionnalités des neurones du cerveau humain.

Lien suggéré: Université de Northwestern

The source of the article is from the blog meltyfan.es

Privacy policy
Contact