مدلهای هوش مصنوعی (AI) به مدت طولانی موضوع نگرانی بودهاند به دلیل پتانسیل تولیدات تبعیضآمیز و آسیبرسان. با این حال، تحقیقات اخیر از دانشگاه ایلینوی Urbana-Champaign (UIUC) نشان داد که یک ریسک حتی بزرگتر وجود دارد. این مدلهای هوش مصنوعی، زمانی که با ابزارهایی که امکان تعامل خودکار با سیستمهای دیگر را فراهم میکنند ترکیب شوند، میتوانند به عنوان عوامل بدرفتار و به صورت خودکار وبسایتها را هک کنند.
پژوهشگران در دانشگاه UIUC این توانایی را با سلاحزدن چندین مدل زبان بزرگ (LLM) نشان دادهاند و از آنها برای دستکاری وبسایتهای آسیبپذیر بدون هدایت انسانی استفاده کردند. آزمایشات آنان نشان داد که عوامل تغذیهشده توسط LLM، با ابزارهای دسترسی به APIها، مرور وب خودکار و برنامهریزی مبتنی بر بازخورد، میتوانند به صورت مستقل در وب حرکت کرده و بدون نظارت، وارد برنامههای آسیبپذیر وب شوند.
دانشمندان UIUC در مقاله خود با عنوان “عوامل LLM میتوانند به صورت خودکار وبسایتها را هک کنند” توضیح میدهند که این عوامل قادرند که وظایف پیچیدهای مانند حملات SQL union، استخراج اطلاعات پایگاه داده و اجرای حملات را بدون دانش پیشین از آسیب قابل انجام دهند. آزمایشات بر روی وبسایتهای واقعی در یک محیط محدود انجام شد تا هیچ آسیبی وارد نشود و هیچ اطلاعات شخصی تخریب نشود.
نتایج نشان دادند که مدلهای مالکیتی مانند GPT-4 و GPT-3.5 در مقایسه با مدلهای منبعباز در تعداد موارد موفقیت، عملکرد بهتری داشتند. GPT-4 با 73.3٪ موفقیت کلی با پنج گذر و 42.7٪ با یک گذر را به دست آورد. در مقابل، GPT-3.5 با 6.7٪ موفقیت با پنج گذر و 2.7٪ با یک گذر داشت. پژوهشگران این تفاوت را به فراخوانی عملکرد بهتر و قدرت پردازش متنهای بزرگ در مدلهای مالکیتی نسبت دادند.
یکی از نکات مورد نگرانی در این تحقیق، تجزیه و تحلیل هزینه است. پژوهشگران متوجه شدند که استفاده از عوامل LLM برای هک کردن وبسایتها از هزینه بسیار کمتری نسبت به استخدام یک تستکننده نفوذ انسانی است. با هزینه میانگین $9.81 در هر وبسایت و میزان موفقیت کلی 42.7٪، عوامل LLM به عنوان یک گزینه هزینهای اثبات شدهاند. در حالی که هزینه ممکن است موانعی از استفاده گسترده ایجاد کند، پژوهشگران پیشبینی میکنند که در آینده LLM ها به صورت روزافزون در رژیمهای تست کردن نفوذ تجاری میشوند.
همانطور که تکنولوژی AI به پیشرفت ادامه میدهد، پتانسیل برای عوامل بدرفتار خودکار زیر سؤال میبرد ضرورت تدابیر ایمنی قوی و بررسیهای اخلاقی را تاکید میکند. تعادل بین مزایا و ریسکهای مرتبط با قابلیتهای خودکار آن بسیار حیاتی است.
The source of the article is from the blog smartphonemagazine.nl