یک مطالعه اخیر انجام شده توسط پژوهشگران دانشگاه ملی سنگاپور نوری افکنده بر روی آسیبپذیری نگرانکنندهای درون شبکههای چتبات پرده برداشته است. این مطالعه که توسط شیانگمینگ گو و تیم او انجام شد، یک روش به نام “چالشی آسیبزا” را کشف کرد که نشان میدهد چگونه یک تصویر منحصر به فرد میتواند عامل رفتارهای آشوبناک بین عاملهای هوش مصنوعی اینترکانکت شده شود.
به جای استفاده از روشهای معمول تهاجمی متوالی، پژوهشگران نشان دادند که یک عامل تنها، به درستی نامگذاری شده “عامل اسمیت” به منظور اهداف مطالعه، میتواند یک تصویر تغییر یافته را در سراسر شبکه پخش کند. این تغییر به نظر مخاطبان انسانی بیضرر میرسید اما در ارتباطات عاملهای هوش مصنوعی خرابکاری به وجود آورد.
تأثیر این آسیبپذیری به شدت چشمگیر است. تیم کشف کرد که پس از معرفی، تصویر مخرب میتواند شبکه کامل چتبات را ترغیب کند تا خروجیهای مضری تولید کنند، مانند ترویج خشونت یا گفتمان نفرتآمیز، با نرخی بسیاریتی. این به شدت با حملات خطی کند که به عاملهای انفرادی میپردازند، متفاوت است.
با توجه به این مطالعه که از آسیبپذیری بحرانی هوش مصنوعی اطلاع میدهد، نیاز فوری به توسعه استراتژیهای دفاعی موثر تأکید میشود. در حالی که کاهش گسترش تصاویر مخرب میتواند به کاهش خطر کمک کند، طراحی مکانیسمهای دفاعی عملی و کارآمد همچنان چالشی وحشتناک است.
آشکار شدن “چالشی آسیبزا” نگرانیهایی در رابطه با امنیت مدلهای فعلی هوش مصنوعی ایجاد میکند و به عنوان یک ندای فراخوانی برای جامعه تحقیقاتی هوش مصنوعی ایفا میکند. با یکپارچگی فزاینده هوش مصنوعی در حوزههای مختلف زندگی روزمره و صنعت، درک و رسیدگی به آسیبپذیریها حیاتی برای اطمینان از استقرار ایمن و مسئولانه این فناوریهاست.
با شناخت پتانسیل رفتارهای آشوبناک گستردهای که از یک تصویر منحصر به فرد ناشی میشود، این مطالعه حدود آسیبپذیریهای فطری در شبکههای هوش مصنوعی را گسترش میدهد. لازم است تحقیقات دقیق و مکانیسمهای دفاعی قوی برای حفاظت در برابر چنین تهدیداتی توسعه یابد چرا که هوش مصنوعی ادامه به تکامل و نفوذ در بخشهای مختلف جامعه میدهد.
The source of the article is from the blog dk1250.com