Utforskar artificiell intelligens: Träning av system för att resonera

I en fängslande ny studie har forskare upptäckt att ge artificiell intelligens (AI) system en ”inre monolog” avsevärt förbättrar deras förmåga att resonera. Genom att lära AI att tänka innan de svarar på ledtrådar, liknande hur människor överväger sina nästa ord innan de talar, har en banbrytande metodik kallad ”Quiet-STaR” utvecklats. Denna innovativa strategi instruerar AI-system att generera flera inre rationella samtidigt före formuleringen av ett svar, vilket möjliggör att AI-systemet ger det bästa möjliga svaret.

Till skillnad från traditionella AI-chattrobotar som ChatGPT, som inte funderar över sina svar eller förutser olika möjligheter i konversationen, utrustar Quiet-STaR-algoritmen AI-agenter med förmågan att generera en rad förutsägelser åtföljda av rationella resonemang. När AI ger svar kombinerar och presenterar den det mest lämpliga svaret, vilket sedan kan utvärderas av en mänsklig deltagare baserat på frågans art. Genom denna process avlägsnas felaktiga rationella argument, vilket gör att AI-systemet kan förutse framtida samtal och lära sig av pågående interaktioner.

Genom att använda den öppen källkodsmodellen Mistral 7B för språkbehandling (LLM, Large Language Model), tillämpade forskarna Quiet-STaR-algoritmen och observerade märkbara förbättringar. Den Quiet-STaR-tränade versionen av Mistral 7B uppnådde ett resonansresultat på 47,2%, jämfört med det förtränade resultatet på 36,3%. Även om den fortfarande hade problem med ett matematiktest i skolan och fick ett resultat på 10,9%, var detta en betydande förbättring jämfört med den vanliga versionens initiala resultat på 5,9%.

Det är viktigt att notera att forskarna har fokuserat på att adressera begränsningarna hos befintliga AI-modeller när det gäller förståelse för sunt förnuft och kontextualisering. Språkmodeller som ChatGPT och Gemini, baserade på neurala nätverk som försöker härma den mänskliga hjärnans struktur och inlärningsmönster, har för närvarande inte äkta förståelse. Tidigare försök att förbättra resonemangsförmågan har varit övervägande domänspecifika och begränsar deras tillämpbarhet på olika AI-modeller.

Quiet-STaR-metodiken utmärker sig genom sin mångsidighet, dess förmåga att fungera tyst i bakgrunden och dess potential för implementering med olika typer av LLM:er. Genom att bygga på grunden i self-taught reasoner (STaR) algoritmen, syftar forskarna till att överbrygga klyftan mellan AI-system baserade på neurala nätverk och mänskliga resonemangsförmågor. Denna lovande forskning öppnar nya dörrar i strävan efter att främja AI-teknologi.

Vanliga frågor

1. Vad är Quiet-STaR?
Quiet-STaR är en metodik som tränar AI-system att generera inre rationella argument innan de svarar på ledtrådar, vilket förbättrar deras resonemangsförmåga. Den innebär att felaktiga rationella argument kasseras och att en kombination av förutsägelser används för att ge det bästa svaret.

2. Hur skiljer sig Quiet-STaR från traditionella AI-chattrobotar?
Till skillnad från konventionella AI-chattrobotar som inte tänker eller förutser olika möjligheter i en konversation, utrustar Quiet-STaR AI-agenter med förmågan att överväga olika rationella argument samtidigt och generera bättre svar.

3. Vilka är begränsningarna hos nuvarande AI-modeller?
Nuvarande AI-modeller kämpar med sunt förnuft och kontextualisering. Neurala nätverksbaserade modeller, såsom ChatGPT och Gemini, saknar genuin förståelse.

4. Hur förbättrar Quiet-STaR AI:s resonemangsförmågor?
Genom att träna AI-system att tänka innan de svarar, möjliggör Quiet-STaR för dem att förutse framtida samtal, lära sig av pågående interaktioner och förbättra resonansresultat.

Källor:
arXiv Database
Live Science

The source of the article is from the blog maestropasta.cz

Privacy policy
Contact