Нові моделі штучного інтелекту від компанії Anthropic розширюють межі можливостей та безпеки

Anthropic, новий перспективний учасник у галузі штучного інтелекту, нещодавно представив свої останні моделі штучного інтелекту, відомі як Claude 3. Ці моделі мають вражаючі можливості, що перевищують ті, які пропонують технологічні гіганти, такі як OpenAI та Google. Opus від Anthropic, найбільш вдосконалена модель у сім’ї Claude 3, перевищила провідні програми штучного інтелекту в різних тестах, що вимірюють експертизу та розуміння ШІ.

Крім Opus, у лінійці Claude 3 є ще моделі Sonnet та Haiku, які трошки менш розумно. Opus та Sonnet тепер доступні в 159 країнах, тоді як Haiku ще не була випущена. Одним із засновників Anthropic, Даніела Амодеї, підкреслила, що Claude 3, особливо Opus, проявляє підвищене розуміння ризику порівняно з його попередником, Claude 2. Ця покращена оцінка ризику дозволяє моделі ефективно реагувати на складні питання.

Anthropic, заснований колишніми працівниками OpenAI у 2021 році, швидко вийшов на передовий план як провідний конкурент у галузі ШІ. Зі значними інвестиціями венчурного капіталу, включаючи підтримку від технологічних великанів, таких як Amazon та Google, Anthropic готується залишити відбиток у стрімко змінному ландшафті ШІ.

Однією з помітних особливостей моделей Claude 3 є їх здатність аналізувати різні типи документів, такі як зображення, графіки та технічні діаграми. Однак ці моделі не можуть створювати зображення самі. Anthropic підкреслив, що всі моделі Claude 3 демонструють покращені можливості в аналізі, створенні контенту, генерації коду та багатомовних розмовах.

Хоча моделі Claude 3 проявляють значний інтелект, Anthropic визнає дві ключові слабкості, які вона розглядає у технічній документації. Іноді моделі можуть допускати галюцинації, неправильно інтерпретуючи візуальні дані, а також можуть не впізнавати шкідливі зображення. Розпізнавши можливі виклики, Anthropic активно розробляє політику і методи для запобігання зловживанням його технологією, особливо щодо поширення Dezinformaції під час майбутніх президентських виборів 2024 року.

Хоча Anthropic прагне створювати дуже здатні і безпечні моделі, компанія визнає, що досконалість недосяжна. Однак Амодеї підтверджує, що вони наполегливо працювали, щоб забезпечити, що моделі забезпечують оптимальний баланс між здатністю та безпекою. Є можливість виникнення ситуацій, коли моделі надають неточну інформацію, але Anthropic прагне до постійного удосконалення та мінімізації таких випадків.

The source of the article is from the blog mendozaextremo.com.ar

Privacy policy
Contact