La prossima ondata di intelligenza artificiale: Dai data center ai desktop

Nel sempre progredente campo della tecnologia, le capacità una volta remote dell’IA a livello di data center stanno ora decorando gli ambienti desktop. Senza nuove notizie riguardanti GeForce, l’attenzione si è spostata verso innumerevoli sviluppi nel campo dell’IA, con offerte che vanno dagli assistenti digitali ad avatar sorprendentemente realistici.

Dopo la presentazione delle chip di generazione Blackwell, delle schede di accelerazione e delle piattaforme, si potrebbe presumere che i limiti dell’espansione dell’IA fossero stati raggiunti. Tuttavia, Nvidia è ben lungi dal prendersi una pausa. Guidata dall’intervento del CEO Jensen Huang al Computex, Nvidia sembra decisa a consolidare la sua supremazia di mercato stratificando nuove onde di innovazione.

L’obiettivo è sfruttare ogni briciola di potenza di calcolo all’interno delle GPU, portando conoscenze avanzate direttamente ai PC RTX e, di conseguenza, a un pubblico più ampio, incluso i giocatori. Questo segna l’alba di un’era di intelligenza artificiale accessibile, basandosi sulle fondamenta create da Omniverse e da altre impressionanti dimostrazioni degli sviluppatori.

Gli assistenti digitali stanno facendo la loro comparsa nelle case, grazie agli sviluppi della categoria Copilot+. Questi servizi e sistemi basati su IA generativa operano principalmente nel cloud, ma il futuro punta verso l’esecuzione locale. I computer progettati per elaborare compiti di IA all’interno delle case sono all’orizzonte, alimentati dai Tensor core presenti nelle schede grafiche RTX, sbloccando centinaia di TOPS in prestazioni computazionali. Ciò consente a Microsoft e Nvidia di lavorare su un’accelerazione istantanea per la funzione del copilota su qualsiasi PC RTX, e i nuovi kit di sviluppo software (SDK) agevoleranno la creazione di assistenti personali e modelli linguistici.

Inoltre, l’introduzione dei Microservizi Umani Digitali presenta una prospettiva affascinante ma leggermente intimidatoria. Gli attuali assistenti basati su prompt di testo stanno per essere sostituiti da “persone digitali”, ovvero un’IA generativa simile all’essere umano capace di riconoscimento vocale, conversione istantanea del testo, traduzione, animazioni facciali realistiche e rendering in tempo reale di texture di pelle e capelli realistici. È importante sottolineare che Nvidia ha creato il proprio piccolo modello linguistico (SLM) e ha aggiunto uno strato che genera gesti e movimenti del corpo. Questa visione è destinata a tutti gli utenti di PC RTX, promettendo un livello di interattività e realismo senza precedenti.

The source of the article is from the blog scimag.news

Privacy policy
Contact