محققان هوش مصنوعی از گوگل، دانشگاه کارنگی ملون و مرکز بوش برای هوش مصنوعی در یافتن مقاوت مقابل حملات بهدردخور اقدامات بسیار جذابی ساختهاند. روش نوآورانه آنها پیشرفتهای قابل توجهی را ارائه کرده است و برنامههای کاربردی مناسبی را به دست ما میدهد و به ما نزدیکتر میشود تا سیستمهای هوش مصنوعی امن و قابل اعتماد داشته باشیم.
این تحقیق یک رویکرد ساده و کارا را برای دستیابی به مقاومت درجه یک در برابر نواقص ارائه میدهد. تیم نشان میدهد که این کار با استفاده از مدلهای پیشآموزشدیده عبوری میتوان انجام داد و از این رو روند تقویت مدلها در برابر تهدیدهای حمله ناقصین را ساده میکند.
دستاورد با استفاده از آهنگسازی ناقص
با ترکیب یک مدل احتمالاتی انتشار ساده سازی دارای پیشآموزش و یک دسته بند با دقت بالا، محققان به دقتی 71% در دستهبندی دستکاری شده بر روی دیتاست ImageNet دست یافتند. این نتیجه بهبود قابل توجهی نسبت به روشهای قبلی با سطح اطمینان معتبر ارائه میکند.
عملی و قابل دسترس
یکی از مزایای کلیدی این روش این است که نیازی به تیون پیچیده یا آموزش مجدد ندارد. این امر آن را برای برنامههای مختلف، به ویژه برنامههایی که به دفاع در برابر حملات ناشایست وابستگی دارند، بسیار کاربردی و قابل دسترس میکند.
تکنیک منحصر به فرد آهنگسازی ناقص
روش استفاده شده در این تحقیق شامل مراحل دو گانه است. در ابتدا، مدل پاککننده برای حذف نویز اضافی استفاده میشود و سپس یک دستهبند برچسب مناسب برای ورودیهای تمیز شده تعیین میکند. این فرآیند امکان استفاده از آهنگسازی تصادفی را برروی دسته بندهای پیشآموزشدیده فراهم میکند.
استفاده از مدلهای آهنگسازی ناقص
محققان برجستهی ذکر میکنند که مدلهای احتمالاتی آهنگسازی ناقص برای مرحله پاکسازی در مکانیسمهای دفاعی بسیار مناسب هستند و بازیابی ورودیهای پاکسازی شده با کیفیت بالا از توزیع دادههای نویزی را به خوبی انجام میدهند.
اثبات کارآمدی در دیتاستهای اصلی
به طرز چشمگیری، این روش نتایج عالی را در دیتاستهای ImageNet و CIFAR-10 نشان میدهد و در مقایسه با روشهای قبلی با توجه به حداکثر تغییرات معیار نئورم بهتر عمل میکند.
دسترسی آزاد و قابل تکثیر
به منظور ترویج شفافیت و تحقیقات بیشتر، محققان کدهای خود را در یک مخزن GitHub قرار دادهاند. این امر به دیگران اجازه میدهد تا آزمایشهای آنها را تکرار و بر روی آن آنها را گسترده کنند.
مقاومت مقابل حملات یک نکته بحرانی در تحقیقات هوش مصنوعی است، به خصوص در حوزههایی مانند خودروهای خودران، امنیت داده و تصویربرداری تشخیصی سلامت و خدمات مالی. آسیبپذیری مدلهای یادگیری عمیق در برابر حملات ناهنجار موجب تهدیدهای جدی برای صحت سیستمهای هوش مصنوعی میشود. بنابراین، توسعه راهکارهایی که حفظ دقت و قابلیت اعتماد مدلها را در برابر ورودیهای مضلوم به ارمغان میآورد، امری اساسی است.
روشهای پیشین جهت افزایش مقاومت مدلها اغلب نیازمند رویکرد پیچیده و منابع بالا بودند. با این حال، روش دیفوژن آهنگسازی پاکشده (DDS) نشانگر یک تغییر مهم است با ترکیب مدلهای احتمالاتی پیشآموزشدیده آهنگسازی پاککننده با دستهبندی با دقت بالا. این رویکرد منحصربهفرد باعث بهبود کارایی و قابلیت دسترسی میشود و حوزه مکانیسمهای دفاعی قابل اطمینان در برابر حملات ناشایست را گسترش میدهد.
روش DDS با استفاده از یک فرآیند پاکسازی پیچیده، داده ورودی را تمیز میکند تا حملات ناشایست را از بین ببرد. با استفاده از روشهای دیفوژن پیشرفته در تولید تصویر، روش به طرز کاملی نویز ادجاستریال را برداشت میکند و دستهبندی دقیقی را تضمین میکند. مقامصب نتیجه 71% دقت را در دیتاست ImageNet داشت که بهبود چشمگیری نسبت به روشهای قبلی را به ارمغان خواند.
پیامدهای این تحقیق بسیار گسترده است. روش DDS روشی کارا و قابل دسترستر برای دستیابی به مقاومت در برابر حملات ناشایست است که کاربردهای قابلیت تازگی در سیستمهای خودران، امنیت سایبری، تشخیص تصویری درمانی و خدمات مالی دارد. استفاده از تکنیکهای پایدار مقابله با حملات ناشایست وعده بهبود امنیت و قابلیت اعتماد سیستمهای هوش مصنوعی در محیطهای حیاتی و حساس است.
برای کسب اطلاعات بیشتر میتوانید به دامنه اصلی محققان گوگل، دانشگاه کارنگی ملون و بوش مراجعه کنید.
The source of the article is from the blog windowsvistamagazine.es