In uno studio innovativo, ricercatori hanno scoperto che fornire ai sistemi di intelligenza artificiale (IA) un “monologo interiore” migliora significativamente la loro capacità di ragionamento. Insegnando all’IA a pensare prima di rispondere alle richieste, simile al modo in cui gli esseri umani considerano le loro prossime parole prima di parlare, è stato sviluppato un metodo rivoluzionario chiamato “Mente Silenziosa” (Quiet-STaR). Questo approccio innovativo istruisce i sistemi di IA a generare contemporaneamente molteplici ragionamenti interni prima di formulare una risposta, permettendo così all’IA di fornire la migliore risposta possibile.
A differenza dei tradizionali chatbot di IA come ChatGPT, che non contemplano le loro risposte o anticipano diverse possibilità di conversazione, l’algoritmo Quiet-STaR dota gli agenti di IA della capacità di generare una gamma di previsioni accompagnate da ragionamenti. Nell’offrire risposte, l’IA combina e presenta la risposta più adatta, che può successivamente essere valutata da un partecipante umano in base alla natura della domanda. Attraverso questo processo, i ragionamenti scorretti vengono scartati, permettendo all’IA di anticipare conversazioni future e imparare dagli interventi in corso.
Utilizzando il modello di linguaggio LLM open-source Mistral 7B, i ricercatori hanno applicato l’algoritmo Quiet-STaR e osservato miglioramenti notevoli. La versione di Mistral 7B addestrata con Quiet-STaR ha raggiunto un punteggio di ragionamento del 47,2% rispetto al punteggio pre-addestramento del 36,3%. Anche se ha ancora incontrato difficoltà con un test di matematica scolastica, ottenendo uno score del 10,9%, si tratta di un miglioramento significativo rispetto al punteggio iniziale della versione standard del 5,9%.
È importante sottolineare che i ricercatori si sono concentrati sul superare i limiti dei modelli di IA esistenti nella comprensione del ragionamento del buon senso e della contestualizzazione. Modelli linguistici come ChatGPT e Gemini, basati su reti neurali che cercano di imitare la struttura del cervello umano e i modelli di apprendimento, attualmente non sono in grado di una comprensione genuina. I tentativi precedenti di migliorare le capacità di ragionamento sono stati principalmente specifici di settore, limitandone l’applicabilità a vari modelli di IA.
La metodologia Quiet-STaR si distingue per la sua versatilità, la capacità di funzionare silenziosamente sullo sfondo e il potenziale di implementazione con diversi tipi di LLMs. Basandosi sul fondamento dell’algoritmo self-taught reasoner (STaR), i ricercatori mirano a colmare il divario tra i sistemi di IA basati su reti neurali e le capacità di ragionamento simili a quelle umane. Questa ricerca promettente apre nuove opportunità nella ricerca per l’avanzamento della tecnologia di IA.
Domande frequenti
1. Cos’è Quiet-STaR?
Quiet-STaR è una metodologia che addestra i sistemi di IA a generare ragionamenti interni prima di rispondere alle richieste, migliorando le loro capacità di ragionamento. Coinvolge lo scartare ragionamenti scorretti e sfruttare una combinazione di previsioni per fornire la migliore risposta.
2. In che cosa differisce Quiet-STaR dai tradizionali chatbot di IA?
A differenza dei chatbot di IA convenzionali che non pensano o anticipano diverse possibilità in una conversazione, Quiet-STaR dota gli agenti di IA della capacità di considerare contemporaneamente vari ragionamenti e generare migliori risposte.
3. Quali sono i limiti dei modelli di IA attuali?
I modelli di IA esistenti faticano con il ragionamento del buon senso e la contestualizzazione. I modelli basati su reti neurali, come ChatGPT e Gemini, mancano di una comprensione genuina.
4. Come Quiet-STaR migliora le capacità di ragionamento dell’IA?
Addestrando i sistemi di IA a pensare prima di rispondere, Quiet-STaR consente loro di anticipare conversazioni future, imparare dagli interventi in corso e migliorare i punteggi di ragionamento.
Fonti:
– arXiv Database
– Live Science
The source of the article is from the blog karacasanime.com.ve