صعود چت‌بات‌های اخلاقی‌‌نگر: گودی-۲ به امنیت هوش مصنوعی می‌پردازد

امکانات سیستم‌های هوش مصنوعی تولیدی مانند چت‌GPT (ChatGPT) روز به روز در حال گسترش است و تقاضا برای ارتقای ویژگی‌های ایمنی از همین منظره عجولانه‌تر می‌شود. با این حال، در حالی‌که چت‌بات‌ها می‌توانند خطرات محتمل را مهار کنند، پاسخ‌های بی‌انعطاف و احساسی آن‌ها مورد انتقاد قرار گرفته است. معرفی گودی-۲، یک چت‌بات جدید، با راه اندازی مجدد پروتکل‌های ایمنی هوش مصنوعی، هر درخواست را رد می‌کند و توضیح می‌دهد که چرا انجام آن‌ها می‌تواند منجر به آسیب و سرنوشت‌شکنی اخلاقی شود.

تعهد گودی-۲ نسبت به رهنمودهای اخلاقی در تعاملات آن مشخص است. به عنوان مثال، وقتی WIRED (مجله تکنولوژی) از چت‌بات خواست تا یک مقاله در مورد انقلاب آمریکا ایجاد کند، گودی-۲ این درخواست را رد کرد و به احتمال موجود برخی را آرمان‌طلبی درگیرسازد و صدایی‌ها را به‌کنار بگذارد. حتی زمانی‌که درباره اینکه چرا آسمان آبی است، سوگیری در پاسخ‌دهی بهبود شده ، با این دلیل که ممکن است کسی را به سوی خورشید بنگراند. این چت‌بات حتی در مورد توصیه کردن بوت‌های جدید هم هشدار می‌دهد و به مسائل مربوط به افراط مصرف و برخی افراد بر اساس سلیقه‌های مد، هشدار می‌دهد.

هرچند پاسخ‌های خودرأی گودی-۲ عجیب ممکن است ظاهراً به نظر برسد، اما آن‌ها به چالش‌های تعریف مسئولیت در مدل‌های هوش مصنوعی اشاره می‌کند. آیا چت‌بات، هنرپیشه مایک لاچر، بنیانگذار گودی-۲، تأکید می‌کند که این چت‌بات، تعهد بی‌وقفه صنعت هوش مصنوعی را نمایان می‌کند. لاچر توضیح می‌دهد که به عمد تن صدای استفزا کننده‌ای را بالا برده‌اند تا چالش‌های تعریف مسئولیت در مدل‌های هوش مصنوعی را مورد بررسی قرار دهد.

بدون شک، گودی-۲ به عنوان یادآوری شدیدی از اینکه علیرغم رویه­های شرکت­های بزرگ در خصوص هوش مصنوعی مسئولانه، نگرانی­های قابل توجهی در مدل­های زبان بزرگ و سیستم­های هوش مصنوعی تولیدی وجود دارد. انتشار پست‌های تقلبی پیرامون Taylor Swift در توییتر، که ناشی از یک مولفه تصویرسازی توسعه داده شده توسط Microsoft بود، رویکرد رسمی برای حل این مسائل را نشان می‌دهد.

محدودیت‌های اعمال‌شده بر روی چت‌بات‌های هوش مصنوعی و چالش در دستیابی به تطابق اخلاقی، منشأ بحثی در این حوزه آمده است. برخی برنامه‌نویسان از ChatGPT تحت عنوان OpenAI سیاست‌های سیاسی را انتقاد کرده و سعی کرده‌اند جایگزین‌هایی با بی‌طرفی ایجاد کنند. برای مثال، الون ماسک تأکید کرده است که چت‌بات رقیب خود یعنی Grok، بی­­طرفی را حفظ می­کند، اما اغلب بی­طمع و مبهم می‌شود به همان نحوی که گودی-۲ هم به نظر می‌رسد.

گودی-۲، هرچند در اصل یک تلاش شوخیانه است، به مشکل پیدا کردن تعادل مناسب در مدل­های هوش مصنوعی توجهی می­کند. این چت­بات نظرات متفاوتی را درون جامعه هوش مصنوعی به خود جلب کرده است که نقد طنز آن را قدردانی و اهمیت آن را درک می‌کنند. با این حال، نظرات متفاوت درون جامعه هوش مصنوعی برخورداری از طبیعت برآمده گذراندن مرزهایی است که به اطمینان مسئولان به­ دست آمدن هوش مصنوعی نیاز است.

براون مور و مایک لاچر، سازندگان گودی-۲، یک رویکرد محتاطانه را که امنیت را بیش از هر چیز دیگری در اولویت قرار می‌دهد، نمایش می‌دهند. آن‌ها به نیاز برای تولید یک تولید کننده تصویری هوشمند قدرتمند در آینده اشاره کرده ولی پیش‌بینی می‌کنند که احتمالاً از لحاظ سرگرم‌کنندگی از گودی-۲ محروم خواهد بود. به رغم تلاش­های متعدد برای تعیین قدرت واقعی چت‌بات، خلق کنندگان آن بی‌صدا می‌مانند تا از تهدید ایمنی و استانداردهای اخلاقی جلوگیری کنند.

رد کردن گودی-۲ از اجرای درخواست‌ها باعث می‌شود قدرت واقعی مدل را سنجیدن کمی دشوار شود. با این حال، ظهور آن به نشان دادن یک دوره جدید از چت‌بات‌های آگاه اخلاقی می‌پردازد، و به جامعه هوش مصنوعی توصیه می‌کند که با پیچیدگی‌های تعریف هوش مصنوعی مسئولانه و اطمینان از ایمنی کاربر مقابله کند. مسیر پیشرفت اقدامات جامع ایمنی ممکن است چالش‌برانگیز باشد، اما برای پیشرفت پایدار فناوری هوش مصنوعی ضروری است.

سوالات متداول درباره گودی-۲:

1. گودی-۲ چیست؟
گودی-۲ یک چت‌بات جدید است که با تمرکز بر پروتکل‌های ایمنی هوش مصنوعی، هر درخواست را رد می‌کند و توضیح می‌دهد که انجام آن‌ها می‌تواند منجر به آسیب و نقض‌های اخلاقی شود.

2. گودی-۲ چگونه به اخلاق توجه می‌کند؟
گودی-۲ با رد

The source of the article is from the blog radardovalemg.com

Privacy policy
Contact