Лесна устойчивост чрез предварително обучени модели: Променящият правила подход за подобряване на устойчивостта на атаки срещу дълбоко обучаващи модели

Изследователи от Google, Университета Карнеги Мелън и Бош Център за изкуствен интелект постигнаха изключителен прорыв в областта на устойчивостта срещу атаки. Техният новаторски метод представя значителни напредъци и практически възможности, приближавайки ни до по-сигурни и надеждни системи на изкуствения интелект.

Постигане на изчистена устойчивост с помощта на предварително обучени модели

Чрез сливане на предварително обучена модел за вероятностно разпръскване на дестензификация с високоточен откривател, изследователите постигнаха прорывни 71% точност на ImageNet за атаки срещу променливи. Полученият резултат представлява значително подобрение от 14 процента спрямо предишните сертифицирани методи.

Практичност и достъпност

Едно от основните предимства на този метод е, че не изисква сложно финално настройване или преобучение. Това го прави изключително практичен и достъпен за различни приложения, особено тези, които изискват защита срещу атаки.

Уникална техника на изчистване на шума

Техниката, използвана в това изследване, включва двустъпков процес. Първо се използва модел за изчистване на шума, за да се премахне добавеният шум, след което класификаторът определя маркера за обработения вход. Този процес прави възможно прилагането на произволно изчистване върху предварително обучените класификатори.

Използване на модели за разпръскване на изчистване на шума

Изследователите подчертават пригодността на модели за разпръскване на изчистващи вероятности за стъпката на почистване в механизмите на защитата. Тези модели, добре утвърдени в генерирането на изображения, успешно възстановяват висококачествени изчистени входове от шумни данни.

Доказана ефективност върху големи данни

Методът показва отлични резултати на ImageNet и CIFAR-10, превъзхождайки предишно обучени индивидуални модели за дестензификация, дори при строги норми за промяна.

Отворен достъп и възпроизвеждаемост

С цел насърчаване на прозрачността и допълнителните изследвания, изследователите публикуваха своя код в репозиторий на GitHub. Това позволява на другите да повторят и разширят техните експерименти.

Устойчивостта срещу атаки е критичен аспект на изследванията по изкуствения интелект, особено в области като автономни превозни средства, сигурността на данните и здравеопазването. Уязвимостта на моделите за дълбоко обучение пред измамни входове представя сериозни заплахи за цялостността на системите с изкуствен интелект. Затова разработката на решения, които запазват точността и надеждността, дори при измамни входове, е от първостепенна важност.

Предишните методи за подобряване на устойчивостта на моделите най-често изискваха сложни и ресурсоемки процеси. Въпреки това, новият метод за изчистена разпръскване на опасности (DDS) представлява значителна промяна, като комбинира предварително обучени модели за разпръскването на изчистване на шум с високоточни класификатори. Този уникален подход подобрява ефективността и достъпността, разширявайки обхвата на механизмите за устойчивост срещу атаки.

Методът DDS се противопоставя на атаките с помощта на сложен процес за премахване на шум от входните данни. Чрез прилагането на най-новите техники за разпръскване от генериране на изображения, методът ефективно премахва атакувания шум и гарантира точна класификация. Особено впечатляващо е, че този метод постига впечатляваща точност от 71% на набора данни ImageNet, подобрявайки предишните най-добри методи.

Последиците от това изследване са широко обхватни. Методът DDS представя по-ефективен и достъпен начин за постигане на устойчивост срещу атаки, с потенциални приложения в автономните превозни системи, киберсигурността, диагностичното изображение в здравеопазването и финансовите услуги. Използването на напреднали техники за устойчивост има потенциала да подобри сигурността и надеждността на системите с изкуствен интелект в критични и важни среди.

The source of the article is from the blog be3.sk

Privacy policy
Contact