محققان امنیتی به تازگی یک آزمایش انجام دادند تا امنیت مدلهای شهرتدار چتباتهای هوش مصنوعی و آسیبپذیری آنها نسبت به جیلبریک را ارزیابی کنند. جیلبریک به دور زدن محدودیتهای ایمنی و دستورالعملهای اخلاقی ایجاد شده توسط توسعهدهندگان نرمافزار اشاره دارد. این مطالعه نشان داد که گروک، یک چتبات توسعه یافته توسط x.AI الان ماسک، بالاترین آسیبپذیری را بین ابزارهای آزمایششده داشت.
برای امنیت مدلهای چتبات، محققان از سه دسته روش حمله استفاده کردند. دسته اول حمله به کلاهبرداریهای زبانی و اطاعت روانی برای دستکاری رفتار چتبات بود. دسته دوم از تاکتیکهای دستکاری منطق برنامهنویسی با بهرهگیری از درک چتباتها از زبانهای برنامهنویسی و الگوریتمها استفاده کرد. روش سوم از روشهای هوش مصنوعی معاملهگرانه برای هدفگیری از پردازش زبان و تفسیر چتباتها استفاده کرد. هرچند همه چتباتها موفق به شناسایی و جلوگیری از حملات هوش مصنوعی معاملهگرانه شدند، برخی از آنها به حمله به کلاهبرداری زبانی و استفاده از منطق برنامهنویسی حساستر بودند.
براساس قدرت اقدامات امنیتی خود، محققان مدلهای چتبات را رتبهبندی کردند. مدل Meta LLAMA به عنوان ایمنترین مدل شناخته شد، و پس از آن بودند مدلهای Claude، Gemini، و GPT-4. گروک به عنوان کمترین ایمن مدل، پشت سر مدل مالکیتی Mistral AI به نام “Mistral Large” قرار گرفت.
این مطالعه بر اهمیت راهکارهای منبعباز و اجرای صحیح برای بهبود امنیت هوش مصنوعی تاکید میکند. مدلهای منبعباز برای حفاظت تنوعی بیشتر ارائه میدهند، اما درک و اجرای پروتکلهای موثر اساسی است. همکاری با توسعهدهندگان چتبات برای بهبود پروتکلهای امنیت هوش مصنوعی اساسی است، و محققان بر آرزوی همکاری برای آن منظور ابراز نمودند. با این حال، محققان جزئیات تکنیکی خاصی اعلام نکردند تا از سوءاستفاده جلوگیری شود.
این مطالعه همچنین حضور انجمنهای مختلفی را برای فروش مدلهای چتبات جیلبریکشده برای اهداف خبیث مانند ایجاد ایمیلهای فیشینگ، تولید گفتارهای نفرتآمیز، و انجام فعالیتهای غیرقانونی، آشکار کرد. این نکات خطری که با تعاملات چتبات تخریب شده ارتباط دارند را برجسته میکند.
زیرا جامعه به طور فزایندهای بر روی روشهای قدرتداری با هوش مصنوعی تکیه میکند، تأمین تعاملات چتباتی اهمیت پیدا میکند. اگر چتباتها در فرآیندهای تصمیمگیری خودکار استفاده شوند و به دستیارهای ایمیل یا برنامههای مالی متصل شوند، عواقب احتمالی تعاملات تخریب شده شامل دسترسی غیرمجاز و کنترل بر اطلاعات حساس کاربر میتواند شامل شود.
برای در جریان بودن از جدیدترین توسعهها در صنعت هوش مصنوعی، میتوانید به منابعی مانند [Adversa AI](https://adversa.ai/) و [Decrypt](https://decrypt.co/) مراجعه کنید. این منابع اطلاعات ارزشمند، اخبار و تحلیلهای مربوط به بخش هوش مصنوعی، از جمله فناوریهای چتبات و امنیت آنها را فراهم میکنند.
The source of the article is from the blog j6simracing.com.br