Внимавайте за лъжливи твърдения относно сигурността на изкуствения интелект, предупреждава NIST

Националният институт за стандарти и технологии (NIST) на Съединените щати издаде предупреждение относно доверието към твърденията на продавачите за сигурността на системите за изкуствен интелект (ИИ). В скорошно издание, NIST подчерта необходимостта от непробивни защитни механизми за разработчиците на ИИ. Институтът акцентира върху уязвимостта на ИИ програмите, ако те взаимодействат с уебсайтове или публичност, като твърди, че могат лесно да бъдат манипулирани от злоумишленици, които им подават лъжливи данни. Докладът предупреждава за едновременни мощни атаки върху различни начини на взаимодействие на ИИ, като снимки, текст, реч и таблични данни. NIST подчертава уязвимостта на съвременните системи на изкуствения интелект, особено чрез публичните API и платформите за тяхна настройка.

В таксономията си на атаките и противодействията на ИИ, NIST открива четири основни типа атаки: избягване, отравяне, нарушаване на поверителността и злоупотреба. Избягването включва манипулирането на данните, които достигат до модела на ИИ, за да променят неговото поведение, което може да доведе до грешни тълкувания от страна на автономни превозни средства, например. Атаките отровяване се извършват по време на фазата на обучение на модел на ИИ, където злоумишленници вмъкват неподходящ език, за да влияят на отговорите на модела. Атаките върху поверителността се опитват да извлекат частни информации от моделите на ИИ, докато атаките на злоупотреба целят да заблудят ИИ системи с невярна информация.

Съавторът Алина Опреа, професор в Североизточния университет, подчертава относителната леснота на изпълнение на тези атаки, отбелязвайки, че например атаките на отровяване могат да се извършват с просто няколко десетки манипулирани образци за обучение. Това предизвиква загриженост относно сигурността на ИИ системите и подчертава необходимостта от по-устойчиви отбранителни мерки за защита срещу потенциални заплахи.

Докладът на NIST служи като ценен източник за разработчиците и потребителите на ИИ, като насърчава внимание при твърденията за непробивна сигурност на ИИ. Тъй като областта на изкуствения интелект продължава да се разширява, е от съществено значение да се отдаде приоритет на разработката на ефективни мерки за сигурност, с които да се гарантира защита срещу потенциални атаки и да се осигури интегритетът на ИИ системите.

The source of the article is from the blog lanoticiadigital.com.ar

Privacy policy
Contact