Новые модели искусственного интеллекта от Anthropic расширяют возможности и безопасность

Anthropic, многообещающий новичок в области искусственного интеллекта, только недавно представил свои последние модели ИИ, известные совместно как Claude 3. Эти модели имеют внушительные возможности, превосходящие те, что предлагают техногиганты, такие как OpenAI и Google. Opus от Anthropic, самая продвинутая модель в семействе Claude 3, показала лучшие результаты, чем ведущие программы искусственного интеллекта в различных тестах, измеряющих экспертность и способности рассуждения ИИ.

Кроме Opus, в состав семейства Claude 3 входят Sonnet и Haiku, две немного менее интеллектуальные модели. Opus и Sonnet теперь доступны в 159 странах, в то время как Haiku еще не был выпущен. Соучредитель Anthropic, Даниэла Амодеи, отметила, что Claude 3, особенно Opus, показывает более высокое понимание риска по сравнению со своим предшественником, Claude 2. Эта улучшенная оценка риска позволяет модели эффективно реагировать на сложные вопросы.

Anthropic, основанная бывшими сотрудниками OpenAI в 2021 году, быстро стала одним из ведущих конкурентов в индустрии искусственного интеллекта. С значительным финансированием венчурного капитала, включая поддержку таких техногигантов, как Amazon и Google, Anthropic готова оставить отпечаток в быстро развивающемся пейзаже искусственного интеллекта.

Одной из заметных особенностей моделей Claude 3 является их способность анализировать различные типы документов, такие как изображения, диаграммы и технические схемы. Однако эти модели не могут создавать изображения самостоятельно. Anthropic подчеркнула, что все модели Claude 3 демонстрируют улучшенные способности в анализе, создании контента, генерации кода и многоязычных разговорах.

Хотя модели Claude 3 обладают замечательным интеллектом, Anthropic признает два ключевых недостатка, о которых говорится в технической белой книге. Модели иногда испытывают галлюцинации, неправильно интерпретируя визуальные данные, и могут не распознавать вредные изображения. Осознавая потенциальные вызовы, Anthropic активно разрабатывает политики и методы для предотвращения злоупотреблений своей технологией, особенно в связи с дезинформацией в предстоящих президентских выборах 2024 года.

Хотя Anthropic стремится к наиболее способным и безопасным моделям, компания признает, что идеальность недостижима. Однако Амодеи подчеркивает, что они усердно работали над тем, чтобы модели нашли оптимальный баланс между способностью и безопасностью. Возможны случаи, когда модели генерируют неточную информацию, но Anthropic нацелена на непрерывное усовершенствование и стремится минимизировать такие ситуации.

The source of the article is from the blog motopaddock.nl

Privacy policy
Contact