Industria dell’AI si sposta verso modelli linguistici più piccoli per efficienza dei costi

Le grandi aziende tech cercano un equilibrio tra capacità e costi con modelli AI ridotti

In una svolta strategica, le principali aziende tecnologiche che hanno investito pesantemente nell’intelligenza artificiale (AI) stanno ora optando per modelli di lingua più piccoli rispetto ai loro omologhi più grandi. Dopo aver versato miliardi in sistemi AI estesi, questi modelli più piccoli rappresentano una nuova direzione mirata a incrementare i ricavi offrendo nel contempo potenti capacità.

Negli ultimi tempi, Apple, Microsoft e Google hanno introdotto modelli AI con meno parametri ma progettati per mantenere funzionalità robuste. Questa mossa arriva in mezzo agli sforzi per incoraggiare l’adozione aziendale dell’AI. Le preoccupazioni per i costi operativi elevati e la potenza di calcolo necessaria per eseguire modelli di lingua larghi – la tecnologia alla base dei popolari chatbot come il ChatGPT di OpenAI – hanno spinto le aziende a considerare alternative più economiche.

In generale, un numero maggiore di parametri nel software AI corrisponde a prestazioni migliorate e alla capacità di svolgere compiti complessi con precisione. Nonostante ciò, OpenAI e Google hanno annunciato rispettivamente GPT-4.0 e Gemini 1.5 Pro, entrambi con trilioni di parametri. Allo stesso tempo, Meta sta sviluppando una versione del suo modello open-source ‘LAMA’ dotata di 400 miliardi di parametri.

Gli ‘Big tech’ promuovono modelli ridotti come sostituti economici

I costi elevati associati ai grandi modelli AI pongono sfide nel convincere i clienti aziendali a investire nelle tecnologie AI. Inoltre, vi sono preoccupazioni riguardanti la responsabilità dei dati e le questioni di diritto d’autore, che ostacolano i tassi di adozione dell’AI.

In risposta, aziende come Meta e Google stanno pubblicizzando modelli di lingua più piccoli come soluzione conveniente ed efficiente dal punto di vista energetico che può essere personalizzata con meno requisiti di formazione e operativi, garantendo anche la protezione dei dati sensibili.

Eric Boyd, Vice Presidente dell’Azure AI di Microsoft, sottolinea che questi modelli di alta qualità e a basso costo aprono la porta a una vasta gamma di applicazioni, consentendo ai clienti di intraprendere progetti che potrebbero non aver giustificato precedentemente l’investimento.

I modelli di lingua più piccoli possono elaborare compiti localmente sui dispositivi, anziché inviare informazioni al cloud, il che potrebbe interessare ai clienti attenti alla privacy desiderosi di mantenere i propri dati all’interno delle reti interne.

Inoltre, questi modelli compatti consentono alle funzionalità AI di funzionare sui dispositivi mobili. Il ‘Gemini Nano’ di Google è disponibile nelle ultime iterazioni del telefono Pixel e dello smartphone S24 di Samsung. Apple ha lasciato intendere di equipaggiare i suoi iPhone più venduti con modelli AI, avendo rilasciato l’ ‘OpenAI ELM’, un modello in piccola scala progettato per compiti basati sul testo, solo il mese scorso.

L’entusiasmo all’interno del settore è palpabile poiché si prevede che i modelli ridotti portino ad “applicazioni interessanti”, estendendosi a telefoni e laptop. Il CEO di OpenAI, Sam Altman, ha espresso entusiasmo per il potenziale variegato di questi modelli ridimensionati, impegnandosi nel contempo allo sviluppo di sistemi AI più grandi capaci di funzioni cognitive avanzate.

Domande e Risposte Importanti:

1. Perché le aziende tech stanno passando a modelli di lingua AI più piccoli?
Le aziende tech stanno migrando verso modelli AI più piccoli principalmente per attenuare i costi operativi elevati e rendere l’AI più accessibile agli utenti aziendali. I modelli più piccoli richiedono meno potenza di calcolo e meno risorse da mantenere, offrendo pertanto una soluzione più efficiente dal punto di vista economico ed energetico.

2. I modelli di lingua AI più piccoli possono offrire prestazioni comparabili ai loro omologhi più grandi?
Anche se storicamente i modelli più grandi sono stati associati a migliori prestazioni grazie a più parametri, i progressi tecnologici hanno consentito ai modelli più piccoli di raggiungere elevate funzionalità. Ciò viene fatto ottimizzando le architetture dei modelli e rendendoli più efficienti, anche se potrebbero comunque esserci compromessi sulle prestazioni in determinati compiti complessi.

3. Quali sono le principali sfide associate all’adozione dei grandi modelli di lingua AI?
Le principali sfide includono costi operativi elevati, la necessità di una notevole potenza di calcolo, preoccupazioni per la responsabilità dei dati e questioni di diritto d’autore. Vi sono anche considerazioni ambientali, poiché i modelli più grandi consumano più energia, sollevando questioni di sostenibilità.

Vantaggi e Svantaggi:

Vantaggi dei Modelli di Lingua AI più Piccoli:
Economici: Sono più economici da sviluppare, addestrare e eseguire.
Energeticamente Efficienti: Consumano meno energia e sono migliori per l’ambiente.
Privacy: Possono elaborare i dati localmente, potenziando la privacy degli utenti.
Accessibilità: Consentono la tecnologia AI su dispositivi mobili, aumentando l’accesso degli utenti.

Svantaggi dei Modelli di Lingua AI più Piccoli:
Prestazioni: Potrebbero non gestire alcuni compiti complessi in modo efficace come i modelli più grandi.
Overfitting: Con meno parametri, c’è il rischio che i modelli possano non generalizzare bene.
Capacità Limitate: Potrebbero avere abilità limitate nel comprendere il contesto e generare risposte nuanced.

Principali Sfide o Controversie:
Il passaggio a modelli più piccoli non è privo di contenuti. Alcuni sostengono che potrebbe portare a un plateau nelle capacità e nell’innovazione dell’AI. Vi sono anche questioni sulla qualità e sul bias dei dati, poiché i modelli più piccoli potrebbero avere una minore esposizione a dati diversificati. Inoltre, l’industria è sfidata a mantenere aggiornati i modelli AI più piccoli man mano che evolvono i contesti linguistici e culturali.

Link Correlati:
Per saperne di più sulle aziende menzionate e sulle loro iniziative AI, è possibile visitare i loro siti web principali:
Apple
Microsoft
Google
Meta (ex Facebook)
OpenAI

Si noti che questi collegamenti portano alle pagine principali delle rispettive aziende, che potrebbero condurre a informazioni specifiche sulle loro sviluppi AI.

The source of the article is from the blog enp.gr

Privacy policy
Contact