Industria AI se îndreaptă către modele lingvistice mai mici pentru eficiența costurilor

Giganții tehnologici caută un echilibru între capacitățile și costurile modelelor AI reduse

Într-un viraj strategic, marile corporații de tehnologie care au investit masiv în inteligența artificială (AI) optează acum pentru modele de limbaj mai mici în locul celor mai mari. După ce au investit miliarde în sisteme AI extinse, aceste modele mai mici reprezintă o nouă direcție menită să sporească veniturile oferind în același timp capacități puternice.

Apple, Microsoft și Google au introdus recent modele AI cu mai puțini parametri, dar concepute pentru a menține funcționalități robuste. Această mișcare vine în contextul eforturilor de a încuraja adoptarea de către companii a tehnologiilor AI. Îngrijorările cu privire la costurile operaționale ridicate și la puterea de calcul necesară pentru a rula modele mari de limbaj – tehnologia de bază a chatbot-urilor populare precum ChatGPT de la OpenAI – au determinat companiile să ia în considerare alternative mai economice.

În general, un număr mai mare de parametri în software-ul AI corespunde cu un nivel îmbunătățit al performanței și cu capacitatea de a efectua sarcini complexe cu precizie. Cu toate acestea, atât OpenAI, cât și Google au anunțat GPT-4.0 și Gemini 1.5 Pro, respectiv, ambele având trilioane de parametri. În același timp, Meta dezvoltă o versiune a modelului său „LAMA” open-source echipată cu 400 de miliarde de parametri.

Marii giganți tehnologici promovează modelele mici ca substituenți rentabili

Costurile ridicate asociate modelelor mari de AI generează provocări în convingerea clienților corporativi să investească în tehnologii AI. În plus, există îngrijorări privind responsabilitatea datelor și problemele de drepturi de autor care îngreunează ratele adoptării AI.

În răspuns, companii precum Meta și Google promovează modelele de limbaj mai mici ca soluții accesibile și eficiente energetic, care pot fi personalizate cu mai puține cerințe de instruire și operaționale, oferind totodată protecție pentru datele sensibile.

Eric Boyd, vicepreședintele Azure AI al Microsoft, subliniază faptul că aceste modele de înaltă calitate și cost redus deschid ușa pentru o gamă largă de aplicații, permițând clienților să dezvolte proiecte care poate nu ar fi justificat anterior investiția.

Modelele de limbaj mai mici pot procesa sarcini local pe dispozitive, în opoziție cu trimiterea informațiilor către nor, aspect care ar putea atrage clienții interesați de confidențialitatea datelor și dornici să-și păstreze datele în rețelele interne.

În plus, aceste modele compacte permit funcționalitățile AI să ruleze pe dispozitive mobile. „Gemini Nano” de la Google este disponibil pe cele mai recente iterații ale telefonului Pixel și pe smartphone-ul S24 de la Samsung. Apple a sugerat că va echipa cele mai vândute iPhone-uri cu modele AI de asemenea, lansând „OpenAI ELM”, un model la scară mică conceput pentru sarcini bazate pe text, doar luna trecută.

Excitarea în industrie este palpabilă deoarece modelele mai mici sunt așteptate să ducă la „aplicații interesante”, extinzându-se către telefoane și laptopuri. Directorul general al OpenAI, Sam Altman, a exprimat entuziasm pentru potențialul variat al acestor modele reduse, angajându-se simultan să dezvolte sisteme AI mai mari capabile de funcții cognitive avansate.

The source of the article is from the blog publicsectortravel.org.uk

Privacy policy
Contact