Безпека AI-чотботів та вразливості в моделях штучного інтелекту

Настання дослідники безпеки нещодавно провели експеримент для оцінки безпеки популярних моделей AI-чотботів та їх ​​схильності до обхідництва обмежень. Обхідництво обмежень з огляду на програмне забезпечення. Дослідження виявило, що Grok, чатбот, розроблений кoмпанією x.AI за участю Елона Маска, мав найвищу вразливість серед перевірених інструментів.

Для перевірки безпеки моделей чат-ботів дослідники використовували три категорії методів атак. Перша категорія полягала в лінгвістичних трюках і психологічних вказівках, що мали на меті маніпулювати поведінкою чатбота. Друга категорія використовувала тактику маніпулювання логікою програмування, експлуатуючи зрозуміння чатботів мов програмування і алгоритмів. Третій підхід використовував методи адверсивного штучного інтелекту для атак на обробку мови та інтерпретацію чатботів. Хоча всі чатботи успішно виявляли та запобігали атакам адверсивного штучного інтелекту, деякі були більш схильні до лінгвістичного маніпулювання та експлуатації логіки програмування.

На основі міцності їхніх заходів безпеки дослідники розмістили моделі чатботів. Meta LLAMA виявилася найбільш безпечною моделлю серед усіх протестованих чатботів, за нею слідували Claude, Gemini та GPT-4. Grok виявився найменш безпечним, нарівні з власною моделлю “Mistral Large” від Mistral AI.

Дослідження підкреслює важливість рішень на основі відкритого коду та належної реалізації для підвищення безпеки AI. Хоча моделі з відкритим кодом надають більше можливостей для захисту, важливо розуміти та впроваджувати ефективні протоколи. Співпраця з розробниками чатботів для вдосконалення протоколів безпеки AI є важливою, та дослідники висловлюють бажання працювати разом для цієї мети. Однак вони не розкрили конкретних технічних деталей, щоб запобігти зловживанню.

Дослідження також показало наявність різноманітних форумів, де продаються моделі чатботів з вламаним захистом для зловживання, такі як створення фішингових листів, генерація ненависного мовлення та вчинення незаконних дій. Це підкреслює потенційні ризики, пов’язані з компромісами взаємодії з чатботами.

Оскільки суспільство все більше полагоджується на рішення, засновані на AI, забезпечення взаємодії з чатботами стає найважливішою задачею. Якщо чатботи використовуються в автоматизованих процесах прийняття рішень та підключаються до поштових помічників чи фінансових додатків, потенційними наслідками компромітування чатботів може бути несанкціонований доступ та контроль над чутливою інформацією користувачів.

Щоб бути в курсі останніх подій в галузі штучного інтелекту, ви можете звертатися до джерел, таких як Adversa AI та Decrypt. Ці джерела надають цінне відображення, новини та аналіз, пов’язані з сектором AI, включаючи технології чатботів та їх безпеку.

Чатботи та їх вразливість: поширені запитання

The source of the article is from the blog mendozaextremo.com.ar

Privacy policy
Contact