Nauji Anthropic dirbtiniai intelekto modeliai išplečia galimybių ir saugumo ribas

Anthropic, žadančioji nauja veikėja dirbtinio intelekto srityje, neseniai pristačiusi savo naujausius dirbtinius intelekto modelius, kolektyviai žinomus kaip Claude 3. Šie modeliai puikiai pasižymi gebėjimais, pralenkiančiais tokius technologijos gigantus kaip „OpenAI“ ir „Google“. Anthropic Opus, pažangiausias modelis iš Claude 3 šeimos, ištesėjo pramonės lyderiaujančius dirbtinio intelekto programas įvairiuose testuose, matuojančiuose dirbtinio intelekto ekspertizę ir mąstymo gebėjimus.

Be Opus, Claude 3 asortimente yra Sonnet ir Haiku, du šiek tiek mažiau įžvalgūs modeliai. Opus ir Sonnet dabar pasiekiami 159 šalyse, o Haiku dar nebuvo išleistas. Anthropic bendraasociė, Daniela Amodei, pabrėžė, kad Claude 3, ypač Opus, demonstruoja išaukštintą rizikos supratimą palyginti su savo pirmtaku, Claude 2. Šis sutvirtintas rizikos vertinimas leidžia modeliui efektyviai reaguoti į sudėtingus klausimus.

Anthropic, įkurtas buvusių „OpenAI“ darbuotojų 2021 metais, greitai tapo pirmaujančiu konkurentu dirbtinio intelekto pramonėje. Su reikšmingu nuosavo kapitalo finansavimu, įskaitant palaikymą iš technologijos gigantų, tokiose kaip „Amazon“ ir „Google“, Anthropic ruošiasi palikti pėdsaką sparčiai kintančioje dirbtinio intelekto aplinkoje.

Vienas pastebimas savybių, būdingų Claude 3 modeliams, yra jų gebėjimas analizuoti įvairius dokumento tipus, tokius kaip vaizdai, lentelės ir techniniai diagramos. Tačiau šie modeliai negali generuoti vaizdų patys. Anthropic pabrėžė, kad visi Claude 3 modeliai demonstruoja tobulas gebėjimus analizėje, turinyje kūrimuose, kodo generavime ir daugiakalbėse konversacijose.

Nors Claude 3 modeliai demonstruoja pastebimą intelektą, Anthropic pripažįsta dvi pagrindines silpnybes, kurias jis sprendžia techniniame baltajame popieriuje. Modeliai kartais patiria halucinacijas, neteisingai interpretuoja vaizdinę informaciją ir gali nepripažinti kenksmingų vaizdų. Atsižvelgiant į galimas iššūkius, Anthropic aktyviai kuria politikas ir metodus, skirtus užkirsti kelią technologijos piktnaudžiavimui, ypač susijusiam su dezinformacija būsimų 2024 m. prezidento rinkimų metu.

Nors Anthropic siekia labai galingų ir saugių modelių, bendrovė pripažįsta, kad tobulumas yra nepasiekiamas. Tačiau Amodei tvirtina, kad jie nuolat dirbo siekdami užtikrinti, jog modeliai subalansuotų tarp galimybių ir saugumo optimalų santykį. Vis dar gali būti atvejų, kai modeliai generuos netikslią informaciją, tačiau Anthropic įsipareigojęs nuolat tobulėti ir siekti sumazinti tokius atvejus.

Atvykimas Anthropic ir jo revoliucingų Claude 3 modelių prideda naują požiūrį į konkurencingą dirbtinio intelekto aplinką. Dėl jų beprecedentinių galimybių šie modeliai ruošiasi iš naujo apibrėžti, kaip dirbtinio intelekto technologija gali būti naudojama įvairiose srityse, atsižvelgiant taip pat į svarbius saugumo ir atsakingo naudojimo aspektus.

The source of the article is from the blog elblog.pl

Privacy policy
Contact