تلاشی بی‌درنگ و قدرتمند از طریق مدل‌های پیش‌آموزش‌دیده رویکردی بسیار موثر در افزایش مقاومت مقابل حملات در مدل‌های یادگیری عمیق برای افزایش امنیت و قابلیت اطمینان سیستم‌های هوش مصنوعی ارائه می‌دهد.

محققان هوش مصنوعی از گوگل، دانشگاه کارنگی ملون و مرکز بوش برای هوش مصنوعی در یافتن مقاوت مقابل حملات به‌دردخور اقدامات بسیار جذابی ساخته‌اند. روش نوآورانه آن‌ها پیشرفت‌های قابل توجهی را ارائه کرده است و برنامه‌های کاربردی مناسبی را به دست ما می‌دهد و به ما نزدیک‌تر می‌شود تا سیستم‌های هوش مصنوعی امن و قابل اعتماد داشته باشیم.

این تحقیق یک رویکرد ساده و کارا را برای دستیابی به مقاومت درجه یک در برابر نواقص ارائه می‌دهد. تیم نشان می‌دهد که این کار با استفاده از مدل‌های پیش‌آموزش‌دیده عبوری می‌توان انجام داد و از این رو روند تقویت مدل‌ها در برابر تهدیدهای حمله ناقصین را ساده می‌کند.

دستاورد با استفاده از آهنگسازی ناقص

با ترکیب یک مدل احتمالاتی انتشار ساده سازی دارای پیش‌آموزش و یک دسته بند با دقت بالا، محققان به دقتی 71% در دسته‌بندی دستکاری شده بر روی دیتاست ImageNet دست یافتند. این نتیجه بهبود قابل توجهی نسبت به روش‌های قبلی با سطح اطمینان معتبر ارائه می‌کند.

عملی و قابل دسترس

یکی از مزایای کلیدی این روش این است که نیازی به تیون پیچیده یا آموزش مجدد ندارد. این امر آن را برای برنامه‌های مختلف، به ویژه برنامه‌هایی که به دفاع در برابر حملات ناشایست وابستگی دارند، بسیار کاربردی و قابل دسترس می‌کند.

تکنیک منحصر به فرد آهنگسازی ناقص

روش استفاده شده در این تحقیق شامل مراحل دو گانه است. در ابتدا، مدل پاک‌کننده برای حذف نویز اضافی استفاده می‌شود و سپس یک دسته‌بند برچسب مناسب برای ورودی‌های تمیز شده تعیین می‌کند. این فرآیند امکان استفاده از آهنگسازی تصادفی را برروی دسته بندهای پیش‌آموزش‌دیده فراهم می‌کند.

استفاده از مدل‌های آهنگسازی ناقص

محققان برجستهی ذکر می‌کنند که مدل‌های احتمالاتی آهنگسازی ناقص برای مرحله پاک‌سازی در مکانیسم‌های دفاعی بسیار مناسب هستند و بازیابی ورودی‌های پاک‌سازی شده با کیفیت بالا از توزیع داده‌های نویزی را به خوبی انجام می‌دهند.

اثبات کارآمدی در دیتاست‌های اصلی

به طرز چشمگیری، این روش نتایج عالی را در دیتاست‌های ImageNet و CIFAR-10 نشان می‌دهد و در مقایسه با روش‌های قبلی با توجه به حداکثر تغییرات معیار نئورم بهتر عمل می‌کند.

دسترسی آزاد و قابل تکثیر

به منظور ترویج شفافیت و تحقیقات بیشتر، محققان کدهای خود را در یک مخزن GitHub قرار داده‌اند. این امر به دیگران اجازه می‌دهد تا آزمایش‌های آن‌ها را تکرار و بر روی آن آنها را گسترده کنند.

مقاومت مقابل حملات یک نکته بحرانی در تحقیقات هوش مصنوعی است، به خصوص در حوزه‌هایی مانند خودروهای خودران، امنیت داده و تصویربرداری تشخیصی سلامت و خدمات مالی. آسیب‌پذیری مدل‌های یادگیری عمیق در برابر حملات ناهنجار موجب تهدیدهای جدی برای صحت سیستم‌های هوش مصنوعی می‌شود. بنابراین، توسعه راهکارهایی که حفظ دقت و قابلیت اعتماد مدل‌ها را در برابر ورودی‌های مضلوم به ارمغان می‌آورد، امری اساسی است.

روش‌های پیشین جهت افزایش مقاومت مدل‌ها اغلب نیازمند رویکرد پیچیده و منابع بالا بودند. با این حال، روش دیفوژن آهنگسازی پاک‌شده (DDS) نشانگر یک تغییر مهم است با ترکیب مدل‌های احتمالاتی پیش‌آموزش‌دیده آهنگسازی پاک‌کننده با دسته‌بندی با دقت بالا. این رویکرد منحصربه‌فرد باعث بهبود کارایی و قابلیت دسترسی می‌شود و حوزه مکانیسم‌های دفاعی قابل اطمینان در برابر حملات ناشایست را گسترش می‌دهد.

روش DDS با استفاده از یک فرآیند پاکسازی پیچیده، داده ورودی را تمیز می‌کند تا حملات ناشایست را از بین ببرد. با استفاده از روش‌های دیفوژن پیشرفته در تولید تصویر، روش به طرز کاملی نویز ادجاستریال را برداشت می‌کند و دسته‌بندی دقیقی را تضمین می‌کند. مقامصب نتیجه 71% دقت را در دیتاست ImageNet داشت که بهبود چشمگیری نسبت به روش‌های قبلی را به ارمغان خواند.

پیامدهای این تحقیق بسیار گسترده است. روش DDS روشی کارا و قابل دسترس‌تر برای دستیابی به مقاومت در برابر حملات ناشایست است که کاربردهای قابلیت تازگی در سیستم‌های خودران، امنیت سایبری، تشخیص تصویری درمانی و خدمات مالی دارد. استفاده از تکنیک‌های پایدار مقابله با حملات ناشایست وعده بهبود امنیت و قابلیت اعتماد سیستم‌های هوش مصنوعی در محیط‌های حیاتی و حساس است.

برای کسب اطلاعات بیشتر می‌توانید به دامنه اصلی محققان گوگل، دانشگاه کارنگی ملون و بوش مراجعه کنید.

The source of the article is from the blog windowsvistamagazine.es

Privacy policy
Contact