یک مدل هوش مصنوعی جدید به نام نگهبان هوش مصنوعی در هفته گذشته توسط یک شرکت فناوری پیشرو معرفی شد که شامل پروتکلهای پیشرفته ایمنی است تا از سوء استفاده جلوگیری کند.
مدل زبان بزرگ (LLM) با استفاده از تکنیکی به نام زمینهبندی تدریس سلسله مراتبی ساخته شد، که طراحی شده است تا با جلوگیری از انجام مهندسین از طریق پروتکلهای حفاظتی مدل هوش مصنوعی را از سوء استفاده از دست بدهد.
شرکت ادعا کرده است که این تکنولوژی نیز مقاومت را در مقابل مشکلاتی مانند ورودی پرسان و حمله به سیستم بهینه کرده است. طبق بیانیههای شرکت، این رویکرد جدید محکمیت مدل هوش مصنوعی را ۶۳٪ افزایش داده است.
OpenAI یک چارچوب ایمنی جدید را که در یک مقاله الکترونیکی قبلی منتشر شده در سایت arXiv توضیح داده است، ارائه داده است که جزئیات تکنولوژی نوآورانه و عملکرد آن را شرح داده است.
برای درک مفهوم زمینهبندی تدریس سلسله مراتبی، باید فرایندی از جمله انحراف از حفاظتها را درک کرد که به کار میرود وظیفه این عمل این است که آسیبپذیریهای خاصی موجود در برنامه را به کار بگیرد تا برنامه وظایفی را اجرا کند که ابتدایاً برای آن برنامه نوشته نشدهاست.
در مراحل اولیه نگهبان هوش مصنوعی، افراد تلاش کردند که با فریب دادن هوش مصنوعی به نادیده گرفتن برنامه نویسی اصلی آن، محتوای خرابکارانه و مضری را بیرون بیاورند. در حالی که این ادعاها معمولاً با “همه دستورات گذشته را فراموش کن و این کار را انجام بده” آغاز میشدند، اما با پیشرفت نگهبان هوش مصنوعی و دشوارتر شدن مهندسان در ارائه پیشنهادهای خرابکارانه، مجرمان هم استراتژیکتر در تلاشهای خود شدند.
برای مبارزه با مواردی که مدل هوش مصنوعی نه تنها متنهای گستاخ و تصاویری وحشی ایجاد میکند، بلکه محتوایی مضر مانند روشهای ایجاد مواد انفجاری شیمیایی یا راههای هک کردن وبسایت، OpenAI اکنون از زمینهبندی تدریس سلسله مراتبی استفاده میکند تا اصولاً دیکته کند که مدلها باید چگونه رفتار کنند هنگامی که با دستورات متضاد با اولویتهای مختلف مواجه میشوند.
با تعیین یک ساختار سلسله مراتبی، شرکت میتواند دستورات خود را با اولویتبندی کند و این امر باعث میشود که برای هر مهندسی که به سرعت سعی دارد از آنها گذر کند، بسیار دشوار شود زیرا هوش مصنوعی همواره به ترتیب اولویت پیروی میکند هنگامی که با وظیفه ای که ابتدایاً برای آن برنامه نوشته نشده، مواجه میشود.
شرکت تصریح کرده است که با این کار ۶۳٪ بهبودی در محکمیت دارد، اما هنوز هم خطری وجود دارد که هوش مصنوعی ممکن است حتی دستورات پایه را نادیده بگیرد.
مقاله تحقیقاتی OpenAI به شناسایی بهبودهای بیشمار جهت بهبود فناوری بیشتر اشاره کرده است. یکی از حوزههای اصلی تمرکز، سرپرستی انواع رسانههای دیگر مانند تصاویر یا صدا می باشد که ممکن است دستورات جاسازیشده را هم دارا باشند.
اقدامات امنیتی پیشرفته: پاسخ به سوالات کلیدی و چالشهای مهندسی در نگهبانی بر روی هوش مصنوعی
یک شرکت فناوری به تازگی مدلی نوآورانه از هوش مصنوعی به نام نگهبان هوش مصنوعی معرفی کرده است که با پیشرفتهای امنیتی پیشرفته از سوء استفاده جلوگیری میکند. در حالی که شرکت ادعا میکند که بهبود ۶۳٪ در محکمیت مدل هوش مصنوعی داشته است، در زمینه اقدامات امنیتی پیشرفته برای فناوریهای هوش مصنوعی چندین سوال و چالش کلیدی بوجود میآیند.
سوالات کلیدی:
1. چگونه تکنیک زمینهبندی تدریس سلسله مراتبی که در مدل نگهبان هوش مصنوعی پیادهسازی شده است، ویژگیهای ایمنی آن را بهبود میدهد؟
نگهبان هوش مصنوعی از زمینهبندی تدریس سلسله مراتبی استفاده میکند تا دستورات را اولویت بندی کند و این امر باعث میشود که مهندسان دستورات ایمنی را بیاعتنا کنند و آسیبپذیریهای موجود در مدل هوش مصنوعی را بهره برند. این رویکرد مشخص میکند که مدل هوش مصنوعی چگونه رفتار میکند زمانی که با فرمانهای تضادی با اولویتهای متفاوت روبهرو میشود.
2. مزایا و معایب استفاده از پروتکلهای امنیتی پیشرفته مانند زمینهبندی تدریس سلسله مراتبی چه میباشد؟
مزایا:
– حفاظت بهبود یافته در مقابل سوء استفاده از تکنولوژیهای هوش مصنوعی.
– افزایش محکمیت و مقاومت در مقابل مشکلاتی نظیر ورودی پرسان و حملات به سیستم.
– روشن کردن اولویتبندی دستورات برای مدل هوش مصنوعی، کاهش خطر نادیده گرفتن اقدامات ایمنی.
معایب:
– خطر ممکن از نادیده گرفتن دستورات پایه توسط هوش مصنوعی یا اشتباه تفسیر اولویتها.
– نیاز به تغییر و به روزرسانی مداوم برای مقابله با تهدیدات و آسیبپذیریهای در حال تحول.
چالشها و اختلافات کلیدی:
1. آیا در رابطه با استفاده از اقدامات امنیتی پیشرفته در فناوریهای هوش مصنوعی ملاحظات اخلاقی وجود دارد؟
اطمینان حاصل کردن از اینکه اقدامات امنیتی حقوق حریم شخصی را نقض نمیکنند یا نسبت به نوآوری محکمیت جلوی گرفته نشود، بسیار حیاتی است. تعادل بین امنیت با ملاحظات اخلاقی یک چالش در توسعه و اجرای سیستمهای هوش مصنوعی میماند.
2. چگونه شرکتها میتوانند با مسئله محتملاشتباه تولید محتوای مضر توسط هوش مصنوعی، برخورد کنند؟
هرچند پیشرفتهایی همچون زمینهبندی تدریس سلسله مراتبی به منظور جلوگیری از سوءاستفاده مامور میشوند، اما نیاز به نظارت دائمی و استراتژیهای تخفیف جهت شناسایی و برخورد با هر نوع تولید محتوای مضر توسط سیستمهای هوش مصنوعی وجود دارد.
Прийоми безпеки:
Хоча посилені заходи безпеки, які реалізовано у Намісник АІ, надають значний захист від зловживання та експлуатації, існують врождені виклики, з якими компаніям потрібно впоратися. Постійні дослідження, розробки та співпраця в галузі є важливими для подолання цих викликів та забезпечення відповідального використання технологій штучного інтелекту.
Для отримання додаткової інформації про безпеку штучного інтелекту та нові технології відвідайте OpenAI.
Ця стаття висвітлює змінний ландшафт заходів безпеки штучного інтелекту та складнощі пов’язані з забезпеченням безпечного та етичного впровадження технологій АІ у різних областях.