Padidinta veiksmingumas su įvairių tipų architektūromis mobiliuosiuose įrenginiuose esančioje dirbtinio intelekto srityje

Prisijungus prie generatyvios dirbtinio intelekto (AI) galios, mobiliajam įrenginiui įgaliojama prasiveržti už debesų ir patekti į įrenginyje vykdomos apdorojimo sritį dėka įmontuotų heterogeninių AI lustų. Šie išmanieji lustai, kuomet suderinami su abstrakčiu sluoksniu, galinčiu efektyviai paskirstyti AI apkrovą tarp įvairių apdorojimo architektūrų, kartu su kompaktiškais kalbos mokymosi modeliais (LLM), turinčiais mažiau nei 15 milijardų parametrų, leidžia tiek įmonėms, tiek vartotojams vykdyti generatyvius AI užklausas tiesiogiai savo įrenginiuose.

ABI Tyrimai teigia, kad heterogeninių AI lustų pasaulinis sklaidos lygis iki 2030 m. viršys 1,8 mlrd. tai atitinka didėjančią tendenciją įterpti daugiau AI galimybių tiesiogiai į įrenginius, tokius kaip nešiojamieji kompiuteriai, išmanieji telefonai ir kitos formos. Kadangi duomenų privatumo susirūpinimai, delsimų problemos ir tinklo išlaidos kelia kliūtis generatyvaus AI vien tik debesų įdiegimui, ABI Tyrimai pabrėžia patrauklią pasiūlymo koncepciją, kuria naudojantis įrenginiuose AI nepriekaištingai įveikiamos šios iššūkiai, taip efektyviau teikiant įžvalgas ir įgalinant plėtojamus produktyvumo taikymus.

Generatyvinių AI apkrovų inovacija tarp heterogeninių lustų esme yra jų sugebėjimas priskirti užduotis aparatūros lygiu tarp procesoriaus, grafinio apdorojimo vieneto (GPU) ir neuroninio apdorojimo vieneto (NPU). Šioje srityje pionieriai yra bendrovės kaip Qualcomm, MediaTek ir Google, kurios jau pradėjo įdiegti LLM į įrenginius. Tuo tarpu Intel ir AMD toliau lyderiauja asmeninių kompiuterių srityje.

Vidinių resursų pakakti tvirtam AI įrenginyje vertinimo pasiūlymui. Produktyvaus taikymo kūrimas reikalauja stiprių partnerystių tarp aparatūros ir programinės įrangos subjektų, padedančių kurti susietas sprendimus, įmontuotus į įrenginius.

ABI Tyrimai numato tai paskatins įrenginio pakeitimo ciklus ir pagreitins siuntimų greitį tarp 2025 ir 2028 m., kadangi programinės sistemos ekosistema brandins, atgaivindama rinkas, kurios šiuo metu stagnuoja. Asmeniniai ir įmoniniai nešiojamų įrenginių rinkos gali džiugintis žymiai didėjančiu augimu, kurio skatinamas naudojimas heterogeninių AI lustų, kurie iki dešimtmečio pabaigos vis labiau bus integruoti į dauguma sistemų.

Lystant gamintojams lustų ir įgaminimo (OEM) įtikinti daugiau klientų ir patobulinti savo pasiūlymus. Sėkmingam pereinamajam laikotarpiui prieš platų AI naudojimą įrenginiuose būtina pasiekti kritinę programų masę, kurios plačiai patiktų galutiniams vartotojams ir įmonėms.

Pagrindinės Klausimai ir Atsakymai:

1. Kas yra heterogeniniai AI lustai?
Heterogeniniai AI lustai tai integruotieji grandinės, turintys kelias skirtingas procesorių rūšis, tokias kaip CPU, GPU ir specializuoti NPU, projektuotos efektyviai tvarkyti įvairias AI užduotis, priskirdami jas tinkamiausiam apdorojimo vienetui.

2. Kodėl įrenginyje vykdomas AI tampa vis svarbesnis?
Įrenginyje vykdomas AI tampa vis labiau paplitęs dėl to, kad jis spręs duomenų privatumo rūpesčius, sumažins delsimo laiką ir sumažins tinklo išlaidas, susijusias su debesų pagrindu vykdomu AI apdorojimu.

3. Kas yra kompaktiški kalbos mokymosi modeliai (LLM) ir kodėl jie svarbūs šiame kontekste?
Kompaktiški LLM yra mašininio mokymosi modeliai, naudojami žmogaus kalbos supratimui ir generavimui, turintys santykinai mažiau parametrų (mažiau nei 15 milijardų). Įrenginyje vykdomai AI šie modeliai yra svarbūs, nes jų mažesnis dydis leidžia efektyviai veikti mobiliuose įrenginiuose be būtinybės naudoti debesų apdorojimą.

4. Kokie iššūkiai susiję su įrenginio vykdymu, turinčiu heterogenines architektūras?
Kai kurie iššūkiai apima programinės įrangos optimizavimą, kad uždaviniai būtų veiksmingai paskirstyti tarp skirtingų procesorių, užtikrinant energijos naudojimo efektyvumą, išlaikant atnaujintą modelį ir kurdami saugias skaičiavimo aplinkas.

Pagrindiniai Iššūkiai ir Kontroversijos:

– Energetikos efektyvumas: Nors heterogeniniai lustai gali optimizuoti našumą tam tikroms užduotims, valdant energijos suvartojimą lieka svarbus iššūkis, kadangi AI apkrovos gali greitai išjautri baterijos gyvenimą.
– Saugumo rūpesčiai: Didesnį įrenginių vykdomą apdorojimą kelia rūpesčiai dėl jautrių duomenų apie mobiliuosius įrenginius saugumo, ypač jei įrenginiai yra prarasti ar kompromituoti.
– Programinės įrangos optimizavimas: Programinės įrangos kūrimas, efektyviai naudojantis heterogenine aparatūra iki maksimumo reikalauja kompetencijos ir koordinavimo tarp aparatūros ir programinės įrangos kūrėjų, kas ne visada paprasta.

Heterogeninių architektūrų privalumai Mobilijos AI:

– Duomenų privatumas: Duomenų apdorojimas įrenginyje sumažina privatumo rūpesčius, kadangi jautriems duomenims nereikia juos perkelti į debesį.
– Mažesnis delsimas: Vietinis apdorojimas pašalina būtinybę bendrauti su nuotoliniais serveriais, padedant greičiau atsakyti į AI taikymus.
– Kainų efektyvumas: Mažina išlaidas, susijusias su duomenų perdavimu ir debesų skaičiavimo paslaugomis.

Heterogeninių architektūrų trūkumai Mobilijos AI:

– Aparatūros apribojimai: Mobilijos AI gali būti apribota mobiliųjų įrenginių fizinių ir termodinaminių apribojimų, paveikiant našumą.
– Sunkumai atnaujinant: Skirtingai nei debesų pagrindai modeliai, kurie gali būti atnaujinami centralizuotai, įrenginyje vykdomi AI modeliai reikalauja atnaujinimų į skirtingus įrenginius, kas gali būti sudėtingesnis procesas.
– Priklausomybė nuo aparatūros ir programinės įrangos sinchronizacijos: Sėkmingas įdiegimas priklauso nuo sklandaus aparatūros ir programinės įrangos integravimo.

Susiję Nuorodos:
Norėdami gauti daugiau informacijos apie AI lustus ir LLM, galite išsamiau susipažinti su šių pramonės lyderių pagrindinėmis puslapiais:
Qualcomm
MediaTek
Google
Intel
AMD

Šie ištekliai gali suteikti papildomų įžvalgų apie dabartines technologijas ir tyrimus AI ir heterogeninių skaičiavimo architektūrų srityje.

The source of the article is from the blog meltyfan.es

Privacy policy
Contact