هوش مصنوعی: هک خودکار نگرانی‌ها را افزایش می‌دهد

مدل‌های هوش مصنوعی (AI) به مدت طولانی موضوع نگرانی بوده‌اند به دلیل پتانسیل تولیدات تبعیض‌آمیز و آسیب‌رسان. با این حال، تحقیقات اخیر از دانشگاه ایلینوی Urbana-Champaign (UIUC) نشان داد که یک ریسک حتی بزرگتر وجود دارد. این مدل‌های هوش مصنوعی، زمانی که با ابزارهایی که امکان تعامل خودکار با سیستم‌های دیگر را فراهم می‌کنند ترکیب شوند، می‌توانند به عنوان عوامل بدرفتار و به صورت خودکار وب‌سایت‌ها را هک کنند.

پژوهشگران در دانشگاه UIUC این توانایی را با سلاح‌زدن چندین مدل زبان بزرگ (LLM) نشان داده‌اند و از آن‌ها برای دستکاری وب‌سایت‌های آسیب‌پذیر بدون هدایت انسانی استفاده کردند. آزمایشات آنان نشان داد که عوامل تغذیه‌شده توسط LLM، با ابزارهای دسترسی به API‌ها، مرور وب خودکار و برنامه‌ریزی مبتنی بر بازخورد، می‌توانند به صورت مستقل در وب حرکت کرده و بدون نظارت، وارد برنامه‌های آسیب‌پذیر وب شوند.

دانشمندان UIUC در مقاله خود با عنوان “عوامل LLM می‌توانند به صورت خودکار وب‌سایت‌ها را هک کنند” توضیح می‌دهند که این عوامل قادرند که وظایف پیچیده‌ای مانند حملات SQL union، استخراج اطلاعات پایگاه داده و اجرای حملات را بدون دانش پیشین از آسیب قابل انجام دهند. آزمایشات بر روی وب‌سایت‌های واقعی در یک محیط محدود انجام شد تا هیچ آسیبی وارد نشود و هیچ اطلاعات شخصی تخریب نشود.

نتایج نشان دادند که مدل‌های مالکیتی مانند GPT-4 و GPT-3.5 در مقایسه با مدل‌های منبع‌باز در تعداد موارد موفقیت، عملکرد بهتری داشتند. GPT-4 با 73.3٪ موفقیت کلی با پنج گذر و 42.7٪ با یک گذر را به دست آورد. در مقابل، GPT-3.5 با 6.7٪ موفقیت با پنج گذر و 2.7٪ با یک گذر داشت. پژوهشگران این تفاوت را به فراخوانی عملکرد بهتر و قدرت پردازش متن‌های بزرگ در مدل‌های مالکیتی نسبت دادند.

یکی از نکات مورد نگرانی در این تحقیق، تجزیه و تحلیل هزینه است. پژوهشگران متوجه شدند که استفاده از عوامل LLM برای هک کردن وب‌سایت‌ها از هزینه بسیار کمتری نسبت به استخدام یک تست‌کننده نفوذ انسانی است. با هزینه میانگین $9.81 در هر وب‌سایت و میزان موفقیت کلی 42.7٪، عوامل LLM به عنوان یک گزینه هزینه‌ای اثبات شده‌اند. در حالی که هزینه ممکن است موانعی از استفاده گسترده ایجاد کند، پژوهشگران پیش‌بینی می‌کنند که در آینده LLM ها به صورت روزافزون در رژیم‌های تست کردن نفوذ تجاری می‌شوند.

همانطور که تکنولوژی AI به پیشرفت ادامه می‌دهد، پتانسیل برای عوامل بدرفتار خودکار زیر سؤال می‌برد ضرورت تدابیر ایمنی قوی و بررسی‌های اخلاقی را تاکید می‌کند. تعادل بین مزایا و ریسک‌های مرتبط با قابلیت‌های خودکار آن بسیار حیاتی است.

The source of the article is from the blog smartphonemagazine.nl

Privacy policy
Contact