Nyskapande kunstig intelligens: Trening av system for resonnering

I ei nyskapande studie har forskarar oppdaga at å gi kunstig intelligens (KI)-system eit «indre tankespel» signifikant aukar deira evne til å resonnera. Ved å læra KI å tenkja før dei svarar på oppgåver, liknande korleis menneske vurderer sine neste ord før dei talar, har ein utvikla ein grensesprengande metodologi kalla «Stille-STaR». Denne innovative tilnærminga lærer KI-system å generera fleire indre resonnement samtidig før dei formulerer eit svar, noko som gjer at KI kan gi det best mogleg svaret.

Til dømes, i motsetning til tradisjonelle KI-chatbotar som ChatGPT, som ikkje gjer overvegingar før dei svarar eller ventar ulike samtalelege moglegheiter, gir Stille-STaR-algoritmen KI-agentar evnen til å generera fleire prediksjonar saman med resonnement. Når dei gir svar, kombinerer KI den mest eigna svaret, som deretter kan vurderast av ein menneskeleg deltakar basert på spørsmålets art. Gjennom denne prosessen blir feilaktige resonnement kasta, noko som gjer det mogleg for KI å førebu seg på framtidige samtaler og læra av pågåande interaksjonar.

Ved å bruka det openkjelde store språkmodellen Mistral 7B (LLM) observerte forskarane bemerkelsesverdige forbetringar ved å bruka Stille-STaR-algoritmen. Den Stille-STaR-trente versjonen av Mistral 7B oppnådde ein resonneringsskår på 47,2% samanlikna med ein pre-treningskår på 36,3%. Sjølv om det framleis strevde med ein skulematteprøve og fikk 10,9%, var dette ei betydeleg forbetring frå den vanlege versjonen sin opphavlege kår på 5,9%.

Det er viktig å merka seg at forskarane har fokusert på å løysa avgrensingane til eksisterande KI-modellar når det gjeld forståing av sunn fornuft og kontekstualisering. Språkmodellar som ChatGPT og Gemini, basert på nevrale nettverk som prøver å etterlikna menneskehjernen si struktur og læringsmønster, er for tida ikkje i stand til genuin forståing. Tidlegare forsøk på å betra resonneringsevner har hovudsakleg vore domenespesifikke og har avgrensa appliserbarheit til ulike KI-modellar.

Stille-STaR-metodikken skil seg ut grunna si fleksibilitet, evne til å fungere stille i bakgrunnen og potensial for implementering med ulike typer LLMer. Ved å byggja på grunnlaget til sjølvlærande resonnementer (STaR) -algoritmen, har forskarane som mål å byggja ei bru mellom nevrale nettverksbaserte KI-system og evna til å resonnere liknande menneske. Denne lovande forskinga opnar nye dører i arbeidet med å framskrida KI-teknologien.

Vanlege spørsmål (FAQ)

1. Kva er Stille-STaR?
Stille-STaR er ein metodikk som trenar KI-system til å generera indre resonnement før dei svarar på oppgåver, noko som forbetrar deira resonneringsevner. Det involverer å forkasta feilaktige resonnement og utnytter ein kombinasjon av prediksjonar for å gi det beste svaret.

2. Korleis skil Stille-STaR seg frå tradisjonelle KI-chatbotar?
I motsetning til konvensjonelle KI-chatbotar som ikkje reknar eller tenkjer fram ulike moglegheiter i ein samtale, utstyrar Stille-STaR KI-agentar med evna til å overvege ulike resonnement samtidig og generera betre svar.

3. Kva er avgrensingane til noverande KI-modellar?
Noen eksisterande KI-modellar strevar med forståing av sunn fornuft og kontekstualisering. Nevralt nettverksbaserte modellar, som ChatGPT og Gemini, manglar genuin forståing.

4. Korleis forbetrar Stille-STaR KI-resonneringsevnene?
Ved å trene KI-system til å tenke før dei svarar, gjer Stille-STaR dei i stand til å førebu seg på framtidige samtaler, læra av pågåande interaksjonar og forbetra resonneringsskåren.

Kjelder:
– [arXiv Database](https://arxiv.org/)
– [Live Science](https://www.livescience.com/)

The source of the article is from the blog jomfruland.net

Privacy policy
Contact