Trasduttori neuromorfi: Ridisegnare i circuiti per un’intelligenza artificiale più efficiente

L’intelligenza artificiale (IA) e il pensiero umano possono entrambi operare sull’elettricità, ma qui finiscono le somiglianze. Mentre l’IA si basa su circuiti in silicio e metallo, la cognizione umana nasce da complesso tessuto vivente. Le fondamentali differenze architettoniche tra questi sistemi contribuiscono alla natura inefficiente dell’IA.

Attualmente i modelli di IA si basano su computer convenzionali, che memorizzano e calcolano le informazioni in componenti separate, con conseguente elevato consumo energetico. In effetti, solo i data center rappresentano una considerevole parte dell’uso globale di elettricità. Tuttavia, da tempo gli scienziati cercano di sviluppare dispositivi e materiali in grado di imitare l’efficienza computazionale del cervello.

Ora, una scoperta da parte di un team di ricercatori guidato da Mark Hersam presso la Northwestern University ci avvicina a raggiungere questo obiettivo. Hanno ridisegnato il transistor, un blocco fondamentale della circuiteria elettronica, in modo che funzioni più simile a un neurone. Integrando memoria e elaborazione, questi nuovi transistor sinaptici a moiré riducono il consumo energetico e consentono ai sistemi di IA di andare oltre la semplice riconoscimento di modelli.

Per ottenere ciò, i ricercatori si sono rivolti a materiali bidimensionali con particolari disposizioni atomiche che creano affascinanti modelli chiamati superstrutture moiré. Questi materiali consentono un preciso controllo del flusso di corrente elettrica e possono memorizzare dati senza bisogno di un’alimentazione continua grazie alle loro speciali proprietà quantistiche.

A differenza dei precedenti tentativi di transistor moiré, che funzionavano solo a temperature estremamente basse, questo nuovo dispositivo funziona a temperatura ambiente e consuma il 20 volte meno energia. Sebbene la sua velocità debba ancora essere completamente testata, il design integrato suggerisce che sarà più veloce ed efficiente dal punto di vista energetico rispetto all’architettura di calcolo tradizionale.

L’obiettivo finale di questa ricerca è rendere i modelli di IA più simili al cervello umano. Questi circuiti simili al cervello possono imparare dai dati, stabilire connessioni, riconoscere modelli e fare associazioni. Questa capacità, nota come apprendimento associativo, è attualmente una sfida per i modelli di IA tradizionali con componenti di memoria e di elaborazione separate.

Utilizzando i nuovi circuiti simili al cervello, i modelli di IA possono distinguere in modo più efficace tra segnale e rumore, consentendo loro di svolgere compiti complessi. Ad esempio, nelle vetture a guida autonoma, questa tecnologia può aiutare i piloti di IA a navigare in condizioni stradali difficili e distinguere tra ostacoli reali e oggetti irrilevanti.

Sebbene ci sia ancora del lavoro da fare nello sviluppo di metodi di produzione scalabili per questi transistor neuromorfi, il potenziale per sistemi di IA più efficienti e potenti è promettente. Avvicinando l’IA alla cognizione umana, questa ricerca apre entusiasmanti possibilità per il futuro dell’intelligenza artificiale.

Intelligenza artificiale (IA) si riferisce alla capacità di macchine o sistemi informatici di svolgere compiti che normalmente richiedono intelligenza umana, come apprendimento, risoluzione dei problemi e decisioni.

Cognizione umana si riferisce ai processi e alle capacità mentali che consentono agli esseri umani di acquisire conoscenza, capire, percepire, pensare e comunicare.

Circuiti in silicio e metallo si riferisce ai materiali e ai componenti utilizzati nei computer convenzionali per elaborare e trasmettere segnali elettrici.

Architettura in questo contesto si riferisce alla struttura e all’organizzazione di un sistema o dispositivo.

Consumo energetico si riferisce alla quantità di energia utilizzata da un sistema o dispositivo per svolgere le sue funzioni.

I data center sono strutture che ospitano sistemi informatici ed attrezzature, inclusi server e storage, allo scopo di immagazzinare, elaborare e distribuire grandi quantità di dati.

Superstrutture moiré sono affascinanti modelli creati dalle particolari disposizioni atomiche di determinati materiali bidimensionali.

Proprietà quantistiche si riferisce alle proprietà e ai comportamenti della materia e dell’energia a livello atomico e subatomico, come descritto dai principi della meccanica quantistica.

Riconoscimento di modelli si riferisce alla capacità di un sistema o dispositivo di identificare e distinguere modelli o caratteristiche nei dati.

Il transistor è un blocco fondamentale della circuiteria elettronica, responsabile del controllo del flusso di corrente elettrica e dell’amplificazione o commutazione dei segnali.

Memoria in questo contesto si riferisce alla capacità di un sistema o dispositivo di memorizzare e recuperare informazioni.

Elaborazione si riferisce alla manipolazione e alla computazione dei dati o delle informazioni da parte di un sistema o dispositivo.

Apprendimento associativo si riferisce alla capacità di un sistema o dispositivo di stabilire connessioni e associazioni tra concetti o dati diversi.

Segnale e rumore si riferisce alla distinzione tra informazioni significative (segnale) e dati irrilevanti o interferenze (rumore).

Metodi di produzione scalabili si riferisce a processi e tecniche che possono essere facilmente espansi o adattati per produrre quantità maggiori di un prodotto o dispositivo.

I transistor neuromorfi sono transistor progettati per imitare l’architettura e la funzionalità dei neuroni nel cervello umano.

Link correlato suggerito: Northwestern University

The source of the article is from the blog lisboatv.pt

Privacy policy
Contact