Новите модели на изкуствен интелект от Anthropic разширяват възможностите и безопасността

Anthropic, един обещаващ нов играч в областта на изкуствения интелект, наскоро разкри своите последни модели на ИИ, колективно наречени Claude 3. Тези модели се отличават с впечатляващи възможности, превъзхождащи тези, предлагани от гигантски технологични компании като OpenAI и Google. Opus на Anthropic, най-развитият модел в семейството Claude 3, е превършил водещите программи за изкуствен интелект в различни тестове, измерващи експертеността и рационалните способности на ИИ.

Освен Opus, линията Claude 3 включва Sonnet и Haiku, два малко по-малко интелигентни модела. Opus и Sonnet вече са достъпни в 159 държави, докато Haiku все още не е излязъл на пазара. Ко-основателят на Anthropic, Даниела Амодеи, подчертава, че Claude 3, особено Opus, демонстрира по-високо разбиране за риск в сравнение с предшественика си, Claude 2. Това подобрено оценяване на риска позволява на модела да реагира ефективно на сложни въпроси.

Anthropic, основан от бивши служители на OpenAI през 2021 година, бързо изпъква като водещ конкурент в индустрията на изкуствения интелект. Със значително финансиране от венчър капитализъм, включително подкрепа от гиганти на технологиите като Amazon и Google, Anthropic има потенциал да остави следа в бързо развиващия се пейзаж на ИИ.

Една от забележителните черти на моделите Claude 3 е техните способности да анализират различни видове документи, като изображения, диаграми и технически схеми. Все пак, тези модели не могат да генерират изображения сами. Anthropic подчертава, че всички модели на Claude 3 демонстрират подобрени възможности за анализ, създаване на съдържание, генериране на код и многоезични разговори.

Въпреки че моделите на Claude 3 показват забележителна интелигентност, Anthropic признава две основни слабости, които адресира в технически документ. Моделите понякога изпитват халюцинации, неправилно тълкувайки визуални данни, и могат да не успеят да разпознаят вредни изображения. Съзнавайки възможните предизвикателства, Anthropic активно разработва политики и методи за предотвратяване на злоупотребата на технологията си, особено по отношение на дезинформацията по време на предстоящите президентски избори през 2024 година.

Въпреки че Anthropic се стреми към изключително способни и безопасни модели, компанията признава, че перфекционизмът е неосъществим. Въпреки това Амодеи поддържа, че те са работили усърдно, за да гарантират, че моделите постигат оптимален баланс между способност и безопасност. Възможно е все още да има случаи, при които моделите генерират неточна информация, но Anthropic се ангажира с постоянно подобрение и цели да минимизира подобни ситуации.

The source of the article is from the blog japan-pc.jp

Privacy policy
Contact