Kiitos aiheen pohjalta: Tehokkaan tekoälyn käyttö Excelissä: Uusi aikakausi taulukkolaskentaohjelmistoissa

Ohjelmistokehittäjä Ishan Anand on vienyt taulukkolaskentariippuvuuden aivan uudelle tasolle integroimalla GPT-2:n, suuren kielimallin, Microsoft Exceliin. Hänen luomuksensa toimii moitteettomasti tarjoten arvokkaita oivalluksia kielimallien toiminnasta ja alustan Transformer-arkkitehtuurin seuraavan sanan ennustamiskyvystä. Anand julistaa rohkeasti, että tekoälyn ymmärtäminen on yhtä helppoa kuin taulukkolaskennan ymmärtäminen, näyttäen tämän sulautumisen valtavan potentiaalin.

1,25 gigatavun GPT-2-taulukkolaskenta on nyt ladattavissa GitHubista, mahdollistaen kenen tahansa kokeilla ja tutkia sen toimintoja. Vaikka GPT-2 ei ole viimeisin kielimalliversio, sillä on silti arvokas rooli näiden mallien mahdollisuuksien ymmärtämisessä.

Tärkeä huomio on, että GPT-2:n tarkoitus ei ole suunniteltu keskusteluun kuten ChatGPT-aikakauden jälkeisissä malleissa. On tärkeää korostaa, että tämän projektin toteutuksessa käytetään GPT-2 Small -mallia, joka koostuu 124 miljoonasta parametrista. Vertailun vuoksi täyden version GPT-2:sta käyttämät parametrit ovat 1,5 miljardia, kun taas uudempi GPT-3 on ylittänyt odotukset hämmästyttävillä 175 miljardilla parametrillä.

GPT-2:n pääasiallinen tarkoitus liittyy älykkään seuraavan sanan ennustamiseen ytimessä. Tämä saavutetaan kielimallin Transformer-arkkitehtuurin avulla, joka pystyy tarkasti ennakoimaan todennäköisimmän täydennyksen annetulle syötesarjalle. Tämän taulukkolaskentaversion toiminnassa on rajoitettu vain 10 merkin pituinen syöte, mikä on merkittävästi pienempi kuin GPT-4 Turbon käsittämä vaikuttava 128 000 merkkiä. Tämä rajoitus ei kuitenkaan vähennä Anandin projektin arvoa, sillä se toimii käytännöllisenä ja opettavaisena johdantona kielimalleihin eri ammattikuntien ammattilaisille, mukaan lukien tekniset johtajat, markkinoijat, tuotepäälliköt, tekoälypolitiikan laatijat, eettikot, kehittäjät ja tutkijat, jotka seikkailevat tekoälyn maailmassa.

Anand painottaa, että tässä projektissa käytetty Transformer-arkkitehtuuri toimii perustana monille muille kielimalleille, kuten OpenAI:n ChatGPT, Anthropicin Claude, Googlen Bard/Gemini, Metan Llama ja monille muille.

Yksityiskohtaisessa läpikäynnissä Anand havainnollistaa, miten GPT-2-taulukkolaskentaintegraatio toimii usealla arkkilla. Ensimmäinen ark

The source of the article is from the blog newyorkpostgazette.com

Privacy policy
Contact