xAI Corp. utgjev Grok-1 Modell som Open Source og tar del i Kampen mot Kjempestore KI-selskap

I ein betydningsfull handling, har xAI Corp., ein oppstart for kunstig intelligens ført i pennen av Elon Musk, gjort sin Grok-1 store språkmodell (LLM) tilgjengeleg som open source. Dette skjedde kort tid etter at Apple Inc. avslørte sin eiga forskning på multimodale LLMer. Musk hadde kunngjort intensjonen om å utgi Grok som open source den 11. mars, men det er i dag at selskapet delte kjernen i arkitekturen og vektene til modellen.

Den utgitte koden omfattar ein viktig del av Grok si strukturelle design – ordninga og sambindinga av lag og noder for dataprosessering. I tillegg har vektene til grunnmodellen, som er dei tilpassede parameterane som bestemmer transformasjonen av inndata til utdata, også blitt delt.

Grok-1 er ein omfattande ekspertblandingmodell utvikla av xAI frå botnen av. Ein ekspertblandingmodell kombinerer utdata frå spesialiserte undermodeller, kjent som eksperter, for å generere ei endelig spådom. Gjennom samlinga av ulike oppgåver og dataundergrupper, nyttar denne tilnærminga ekspertisen til kvar einskild modell for å optimere ytelsen.

Det som er blitt utgitt er ein rå grunnmodellkontrollpunkt frå førehandsopplæringsfasen, som vart avslutta i oktober 2023. Det er viktig å merke seg at modellen ikkje har vorte finjustert for nokon spesifikk applikasjon, som dialog.

Elon Musk sitt xAI har som mål å konkurrere med KI-tilbod frå industrigiganter som Google og OpenAI. Deira innleiande modell, Grok, hentar inspirasjon frå Douglas Adams sin kjende bok «Haikerens guide til galaksen». Ifølgje xAI er Grok designa for å gi svar på eit breitt spekter av spørsmål og til og med foreslå relevante førespurnader.

I mellomtida har Apple tatt eit steg framover i si forsking på multimodale LLMer. Selskapet publiserte nyleg ein artikkel som detaljerer arbeidet sitt med MM1, ein serie multimodale modeller som er i stand til å gi bildetekstar, svare på visuelle spørsmål og forstå naturleg språk. Apple sine forskarar hevdar at multimodale LLMer representerer det neste frontlinja i grunnmodeller og tilbyr overlegne evner.

Multimodale LLMer, som MM1, har evnen til å forstå og generere svar på tvers av ulike datatypar, inkludert tekst, bilder og lyd. Ved å integrere ulike former for informasjon, utmerkar desse modellane seg i komplekse oppgåver. Apples gjennombrot med MM1 er venta å lette skalaen av slike modeller til større datasett, og substantielt forbetre deira ytelse og pålitelegheit.

Det er verd å nemne at Apple tidlegare hadde gjort fremskritt i multimodale LLMer med Ferret, som stille vart utgitt som open source i oktober og fekk merksemd i desember.

Med tilgjenge av Grok-1 sitt open source-kode har xAI Corp. gått inn i kampen mot etablerte KI-selskap. Denne handlinga bidreg ikkje berre til den kollektive kunnskapen i KI-samfunnet, men inviterer òg til samarbeid og innovasjon. I takt med at feltet for kunstig intelligens held fram med å utvikle seg, vil utgivinga av slike modellar utvilsamt forme framtidig forsking og bruksområde innan KI.

Spørsmål og svar

Kva er ein stor språkmodell (LLM)?
Ein stor språkmodell (LLM) er eit system for kunstig intelligens som er designa for å forstå og generere menneskeliknande tekst basert på store mengder treningsdata.

Kva er ein ekspertblandingmodell?
Ein ekspertblandingmodell er ein maskinlæringsmetode som kombinerer resultat frå fleire spesialiserte undermodeller for å gjere ein endeleg spådom. Kvar undermodell fokuserer på ein bestemt del av oppgåva, noko som bidreg til ei overordna optimalisert ytelse.

Kva er multimodale LLMer?
Multimodale LLMer er KI-system som er i stand til å forstå og generere svar på tvers av ulike datatypar, som tekst, bilder og lyd. Ved å integrere ulike former for informasjon, viser desse modellane forbetra evner for komplekse oppgåver.

The source of the article is from the blog lisboatv.pt

Privacy policy
Contact