Дощадність та стійкість завдяки попередньо навченим моделям: Революційний підхід до покращення стійкості до атак у глибоких моделях навчання

Дослідники штучного інтелекту з Google, Карнегі-Мелона університету та Центру штучного інтелекту компанії Bosch зробили неймовірний прорив у галузі стійкості до атак. Їхній новаторський метод демонструє значні досягнення та практичні наслідки, наближаючи нас до більш безпечних і надійних систем штучного інтелекту.

Даний дослідження вводять спрощений підхід до досягнення стійкості високого рівня до атак збурювань. Команда показує, що це можливо зробити, використовуючи готові попередньо навчені моделі, спрощуючи процес зміцнення моделей проти загроз атаками.

Прорив з допомогою методу очищення від шуму

Шляхом поєднання попередньо навченої дифузійної ймовірнісної моделі очищення від шуму з високоточним класифікатором дослідники досягли серйозного зрушення в межах досягнення точності навчання на ImageNet стосовно атак збурювань. Цей результат відзначає значне покращення на 14 відсоткових пунктів порівняно з попередніми сертифікованими методами.

Практичність та доступність

Одним з основних переваг цього методу є те, що він не потребує складного налаштування або повторного навчання. Це робить його дуже практичним і доступним для різноманітних застосувань, особливо тих, які потребують захисту від атак.

Унікальна техніка очищення від шуму

Техніка, що використовується в цьому дослідженні, передбачає двоетапний процес. Спочатку модель очищення від шуму використовується для ліквідації доданого шуму, а потім класифікатор визначає мітку для обробленого вводу. Цей процес дозволяє застосовувати рандомізоване згладжування до попередньо навчених класифікаторів.

Використання моделей дифузійної очищення

Дослідники виокремлюють властивості дифузійних ймовірних моделей очищення від шуму для кроку очищення в механізмах захисту. Ці моделі, широко відомі у генерації зображень, ефективно відновлюють якісні очищені вхідні дані із шумних розподілів даних.

Доведена ефективність на великих наборах даних

Приголомшливо, цей метод показує відмінні результати на ImageNet та CIFAR-10, перевершуючи раніше навчені моделі очищення власного виробництва, навіть за строгих норм видозмінювань.

Відкритий доступ та відтворюваність

З метою сприяння прозорості та подальших досліджень дослідники розмістили свій код у репозиторії GitHub. Це дає змогу іншим відтворити і розвивати їхні експерименти.

Стійкість до атак – це критичний аспект досліджень у галузі штучного інтелекту, особливо в таких галузях, як автономні автомобілі, безпека даних і охорона здоров’я. Вразливість глибоких моделей навчання до атак загрожує недоторканості систем штучного інтелекту. Тому розробка рішень, які забезпечують точність та надійність навіть у випадку хитрих вхідних даних, є надзвичайно важливою.

Попередні методи спрямовані на покращення стійкості моделей, але часто потребують складних та ресурсоємних процесів. Однак новий метод очищення від шуму дифузії (DDS) наслідує значний зріст, поєднуючи попередньо навчені дифузійні ймовірнісні моделі очищення з високоточним класифікатором. Цей унікальний підхід покращує ефективність і доступність, розширюючи коло захисних механізмів проти атак зарозумілості.

Метод DDS запобігає атакам зарозумілості, застосовуючи складений процес очищення для очищення вхідних даних. Завдяки використанню передових технік згладжування у генерації зображень, метод ефективно видаляє адверсивний шум і забезпечує точну класифікацію. Зокрема, метод досягає впечатляючої точності в 71% на наборі даних ImageNet, що покращує порівняно з попередніми методами.

Наслідки цього дослідження мають широкий спектр. Метод DDS пропонує більш ефективний і доступний спосіб досягнення стійкості проти атак зарозумілості з можливими застосуваннями в системах автономних транспортних засобів, кібербезпеці, діагностичного зображення в медицині та фінансових послугах. Використання передових технік стійкості має потенціал покращити безпеку та надійність систем штучного інтелекту у критичних та високоставлених середовищах.

Для отримання додаткової інформації можна відвідати основний сайт дослідників: Google, Карнегі-Мелон Університет, Bosch.

The source of the article is from the blog shakirabrasil.info

Privacy policy
Contact