Neuromorficzne tranzystory: Przebudowa układów dla bardziej wydajnej sztucznej inteligencji

Sztuczna inteligencja (SI) i ludzkie myślenie mogą obie działać na prąd elektryczny, ale tutaj kończą się podobieństwa. Podczas gdy SI polega na krzemowych i metalowych układach, ludzkie poznawanie wynika z kompleksowych tkanek żywych. Fundamentalne różnice w architekturze między tymi systemami przyczyniają się do niewydajności SI.

Obecne modele SI działają na konwencjonalnych komputerach, które przechowują i przetwarzają informacje w oddzielnych komponentach, co prowadzi do dużej konsumpcji energii. Faktycznie, centra danych samodzielnie odpowiadają za znaczną część światowego zużycia energii elektrycznej. Jednak naukowcy od dawna starają się opracować urządzenia i materiały, które mogą naśladować obliczeniową wydajność mózgu.

Teraz przełomowy wynik zespołu badaczy pod kierownictwem Marka Hersama z Uniwersytetu Northwestern przybliża nas do osiągnięcia tego celu. Przeprojektowali tranzystor, fundamentalny blok budulcowy układu elektronicznego, aby działał bardziej jak neuron. Poprzez integrację pamięci z przetwarzaniem, te nowe tranzystory synaptyczne moiré redukują zużycie energii i umożliwiają systemom SI przekraczanie prostego rozpoznawania wzorców.

Aby to osiągnąć, badacze sięgnęli po dwuwymiarowe materiały o unikalnej strukturze atomowej, które tworzą hipnotyzujące wzory zwane nadłożeniami moiré. Te materiały pozwalają na precyzyjną kontrolę przepływu prądu elektrycznego i mogą przechowywać dane bez ciągłego zasilania dzięki swoim specjalnym właściwościom kwantowym.

W odróżnieniu od poprzednich prób tranzystorów moiré, które działały tylko przy bardzo niskich temperaturach, nowe urządzenie to działa w temperaturze pokojowej i zużywa 20 razy mniej energii. Podczas gdy jego prędkość nie została jeszcze w pełni przetestowana, zintegrowany projekt sugeruje, że będzie szybsza i bardziej energooszczędna od tradycyjnej architektury obliczeniowej.

Ostatecznym celem tych badań jest sprawienie, aby modele SI bardziej przypominały ludzki mózg. Te układy przypominające mózg mogą uczyć się na podstawie danych, tworzyć połączenia, rozpoznawać wzorce i dokonywać skojarzeń. Ta zdolność, znana jako nauka asocjacyjna, jest obecnie trudna do osiągnięcia przez tradycyjne modele SI z oddzielnymi komponentami pamięci i przetwarzania.

Wykorzystując nową układnię zbliżoną do mózgu, modele SI mogą skuteczniej rozróżniać sygnał od szumu, co pozwala im wykonywać skomplikowane zadania. Na przykład, w pojazdach autonomicznych ta technologia może pomóc pilotom SI w nawigacji w trudnych warunkach drogowych i rozróżnianiu między prawdziwymi przeszkodami a nieistotnymi obiektami.

Chociaż nadal trzeba wykonać pracę nad rozwinięciem skalowalnych metod produkcji tych tranzystorów neuromorficznych, potencjał dla bardziej wydajnych i potężnych systemów SI jest obiecujący. Poprzez pokonanie różnic między SI a ludzkim poznaniem, te badania otwierają fascynujące możliwości dla przyszłości sztucznej inteligencji.

Sztuczna inteligencja (SI) odnosi się do zdolności maszyn lub systemów komputerowych do wykonywania zadań, które zwykle wymagają ludzkiej inteligencji, takich jak uczenie się, rozwiązywanie problemów i podejmowanie decyzji.

Poznanie ludzkie odnosi się do procesów umysłowych i zdolności, które umożliwiają ludziom zdobywanie wiedzy, rozumienie, postrzeganie, myślenie i komunikację.

Krzem i metalowe układy odnoszą się do materiałów i komponentów używanych w konwencjonalnych komputerach do przetwarzania i przekazywania sygnałów elektrycznych.

Architektura w tym kontekście odnosi się do struktury i organizacji systemu lub urządzenia.

Konsumpcja energii odnosi się do ilości energii zużywanej przez system lub urządzenie do wykonywania swoich funkcji.

Centra danych to obiekty, w których znajdują się systemy komputerowe i urządzenia, w tym serwery i pamięć masową, służące do przechowywania, przetwarzania i dystrybucji dużych ilości danych.

Nadłożenia moiré to hipnotyzujące wzory stworzone przez unikalne układy atomowe pewnych dwuwymiarowych materiałów.

Właściwości kwantowe odnoszą się do właściwości i zachowań materii i energii na poziomie atomowym i subatomowym, opisanych zasadami mechaniki kwantowej.

Rozpoznawanie wzorców odnosi się do zdolności systemu lub urządzenia do identyfikowania i rozróżniania wzorców lub cech w danych.

Tranzystor to fundamentalny blok budulcowy układu elektronicznego, odpowiedzialny za kontrolowanie przepływu prądu elektrycznego oraz wzmacnianie lub przełączanie sygnałów.

Pamięć w tym kontekście odnosi się do zdolności systemu lub urządzenia do przechowywania i pobierania informacji.

Przetwarzanie odnosi się do manipulacji i obliczeń danych lub informacji przez system lub urządzenie.

Nauka asocjacyjna odnosi się do zdolności systemu lub urządzenia do tworzenia połączeń i powiązań między różnymi pojęciami lub danymi.

Sygnał i szum odnoszą się do rozróżnienia między znaczącymi informacjami (sygnał) a nieistotnymi lub niechcianymi danymi lub zakłóceniami (szum).

Skalowalne metody produkcji odnoszą się do procesów i technik, które można łatwo rozbudować lub dostosować do produkcji większych ilości produktu lub urządzenia.

Tranzystory neuromorficzne są tranzystorami zaprojektowanymi tak, aby naśladowały architekturę i funkcjonalność neuronów w ludzkim mózgu.

Sugerowany powiązany link: Uniwersytet Northwestern

The source of the article is from the blog scimag.news

Privacy policy
Contact