Eple framskritt med on-device AI med open-source språkmodellar

Apple forbetrar AI-superar med lokale utføringsmodellar

Apple har nyleg avslørt ei rekkje nye kunstig intelligens (AI)-modellar kalla OpenELMs, ei samling av åtte ulike modellar utforma for utføring på eininga. Denne innovasjonen markerer eit etterlengta skritt mot mogeleg integrering av AI i iOS 18.

OpenELMs (Open-source Efficient Language Models) er heilt open kjeldekode, tilbode på Hugging Face Hub, ei fellesskapsplattform dedikert til AI-entusiastar og utviklarar. Apple har òg gjeve ut ein kvitbok som detaljerer desse nye modellane.

Fire av OpenELM-modellane er førehandsopplærde ved hjelp av CoreNet (tidlegare kjent som CVNets), eit omfattande datasett som er nytta for opplæring av AI-språkmodellar. Dei resterande fire er finojusterte med spesifikk rettleiing frå Apple. Denne finojusteringa betrar AI-modellane for å betre kunne svare på visse spørsmål.

Dei ulike modellane kjem i fire storleikar, definert av talet på parameterar dei har (270 millionar, 450 millionar, 1,1 milliardar og 3 milliardar parameterar), noko som gjer dei mindre enn mange høgtytande modellar som vanlegvis har om lag 7 milliardar parameterar. Både førehandsopplærde og finojusterte versjonar av kvar storleik er tilgjengelege for bruk.

I det som blir sett på som ein uvanleg rørsle for Apple si vanlegvis lukka programvareøkosystem, har selskapet valt å distribuere OpenELM-ane som open kjeldekode. Apple stadfestar at dei ønskjer å styrkje og berike AI-forsking i det offentlege domenet. Førehandsopplæringa vart utført med 1,8 billionar token frå offentlege datasett som inkluderer innhald frå Reddit, Wikipedia og arXiv.org.

Apples engasjement for AI har vore betydeleg i ei tid med sterk konkurranse frå smarttelefonar og datamaskinar med AI-drevne chipar som Google sin Tensor og Qualcomms nyaste AI-chip som er inkludert i Surface-ennheter.

Apple håper at ved å dele sine on-device AI-modellar opent, vil ambisiøse utviklarar hjelpe til med å finpusse programvaren, noko som kan vere avgjerande for framtidige integreringar av AI-verktøy i iOS og macOS. I mellomtida er eksisterande Apple-einingar fulle av AI-mogelegheiter takka vere Apple Neural Engine i deira A- og M-seriechips, som driv funksjonar som Face ID og Animoji. I tillegg er det ventet at komande framsteg med Mac si M4-chip vil vise fram nye AI-relaterte prosesseringsmogelegheiter som er essensielle for den aukande bruken av maskinlæringsverktøy i profesjonell programvare.

Nøkkelspørsmål og svar:

1. Kva er den store forteljarkunsten til Apples OpenELM-ane som open kjeldekode?
Initiativ som opna kjeldekode som OpenELM-ane lar utviklarar og forskarar utanfor Apple få tilgang til, modifisere og innovere basert på Apples språkmodellar. Dette kan føre til breiare samarbeid i AI-fellesskapet, og potensielt akselerere AI-utviklinga. I tillegg viser det transparens i AI-utvikling, og inviterer til innsyn og forbetring frå den større fellesskapet.

2. Kvifor er on-device AI viktig?
On-device AI byr på fleire fordelar, som forbetra personvern, sidan data ikkje treng å sendast til skyen for prosessering. Det tillèt òg lågare latenstid sidan beregninga skjer lokalt, og det kan redusere behova for båndbredde. I tillegg er on-device AI ikkje avhengig av ein konstant internettforbindelse, noko som gjer funksjonar mogelege sjølv når ein er offline.

3. Korleis kan opninga av desse AI-modellane påverke teknologibransjen?
Ved å dele AI-modellane offentleg, kan Apple setje ein presedens for andre teknologigiganter å følge, noko som potensielt kan føre til eit meir opent økosystem der innovasjon blir delt i staden for å haldast bak lukka dører. Dette kan drive fram betre AI-tenester og applikasjonar og breie utvalet av einingar som er i stand til avansert AI-omsetjing.

Nøkkelsutfordringar og kontroversar:

Utvikling av on-device AI-modellar kjem med utfordringa med å balansere ytelse med ressursavgrensingar. Mindre modellar, sjølv om dei er nødvendige for mobile einingar med avgrensa beregningskraft og lagringsplass, kan ikkje tilby dei same mogelegheitene som større, skybaserte modellar.

Datavern kan vere ei bekymring. Opna kodings AI-modellar kan reise spørsmål om kjeldene til treningsdata og om dei blei etisk oppnådd og skikkeleg anonymisert.

Kvaliteten på AI-genererte svar er ein annan mogleg kontrovers. Mindre modellar kan ikkje vere like nøyaktige eller evnerike som dei større motpartane, og dette kan føre til nedre brukaropplevingar eller fordomsbaserte resultat.

For- og ulemper:

Fordelar:

Personvern: On-device prosessering held brukardataen på eininga, noko som er meir sikkert og privat.
Ytelse: Lokal berekning eliminerar behovet for nettverkslatenstid, noko som gir raskare responstider.
Tilgjengelegheit: AI-funksjonar kan nyttast offline.
Energi effektivitet: Lokale AI-oppgåver kan optimaliserast for å bruke mindre straum samanlikna med stadig datatransmisjon til og frå skyen.

Ulemper:

Resursavgrensing: Einingar har avgrensa prosesseringskraft og lagringsplass samanlikna med skyen, noko som kan avgrense kompleksiteten og mogelegheitene til AI-modellane.
Utviklingsutfordringar: Å bygge effektive AI-modellar som passar innenfor on-device avgrensingar krev signifikant teknisk ekspertise og innovasjon.
Datatilgang: Modellane må vere generelle nok til å handtere eit breitt spekter av oppgåver utan fordelen ved å kunne få tilgang til store skybaserte databasar i sanntid.

For meir informasjon om relaterte emne, kan du besøke følgande lenker:
Apple
Hugging Face

Privacy policy
Contact