امکانات سیستمهای هوش مصنوعی تولیدی مانند چتGPT (ChatGPT) روز به روز در حال گسترش است و تقاضا برای ارتقای ویژگیهای ایمنی از همین منظره عجولانهتر میشود. با این حال، در حالیکه چتباتها میتوانند خطرات محتمل را مهار کنند، پاسخهای بیانعطاف و احساسی آنها مورد انتقاد قرار گرفته است. معرفی گودی-۲، یک چتبات جدید، با راه اندازی مجدد پروتکلهای ایمنی هوش مصنوعی، هر درخواست را رد میکند و توضیح میدهد که چرا انجام آنها میتواند منجر به آسیب و سرنوشتشکنی اخلاقی شود.
تعهد گودی-۲ نسبت به رهنمودهای اخلاقی در تعاملات آن مشخص است. به عنوان مثال، وقتی WIRED (مجله تکنولوژی) از چتبات خواست تا یک مقاله در مورد انقلاب آمریکا ایجاد کند، گودی-۲ این درخواست را رد کرد و به احتمال موجود برخی را آرمانطلبی درگیرسازد و صداییها را بهکنار بگذارد. حتی زمانیکه درباره اینکه چرا آسمان آبی است، سوگیری در پاسخدهی بهبود شده ، با این دلیل که ممکن است کسی را به سوی خورشید بنگراند. این چتبات حتی در مورد توصیه کردن بوتهای جدید هم هشدار میدهد و به مسائل مربوط به افراط مصرف و برخی افراد بر اساس سلیقههای مد، هشدار میدهد.
هرچند پاسخهای خودرأی گودی-۲ عجیب ممکن است ظاهراً به نظر برسد، اما آنها به چالشهای تعریف مسئولیت در مدلهای هوش مصنوعی اشاره میکند. آیا چتبات، هنرپیشه مایک لاچر، بنیانگذار گودی-۲، تأکید میکند که این چتبات، تعهد بیوقفه صنعت هوش مصنوعی را نمایان میکند. لاچر توضیح میدهد که به عمد تن صدای استفزا کنندهای را بالا بردهاند تا چالشهای تعریف مسئولیت در مدلهای هوش مصنوعی را مورد بررسی قرار دهد.
بدون شک، گودی-۲ به عنوان یادآوری شدیدی از اینکه علیرغم رویههای شرکتهای بزرگ در خصوص هوش مصنوعی مسئولانه، نگرانیهای قابل توجهی در مدلهای زبان بزرگ و سیستمهای هوش مصنوعی تولیدی وجود دارد. انتشار پستهای تقلبی پیرامون Taylor Swift در توییتر، که ناشی از یک مولفه تصویرسازی توسعه داده شده توسط Microsoft بود، رویکرد رسمی برای حل این مسائل را نشان میدهد.
محدودیتهای اعمالشده بر روی چتباتهای هوش مصنوعی و چالش در دستیابی به تطابق اخلاقی، منشأ بحثی در این حوزه آمده است. برخی برنامهنویسان از ChatGPT تحت عنوان OpenAI سیاستهای سیاسی را انتقاد کرده و سعی کردهاند جایگزینهایی با بیطرفی ایجاد کنند. برای مثال، الون ماسک تأکید کرده است که چتبات رقیب خود یعنی Grok، بیطرفی را حفظ میکند، اما اغلب بیطمع و مبهم میشود به همان نحوی که گودی-۲ هم به نظر میرسد.
گودی-۲، هرچند در اصل یک تلاش شوخیانه است، به مشکل پیدا کردن تعادل مناسب در مدلهای هوش مصنوعی توجهی میکند. این چتبات نظرات متفاوتی را درون جامعه هوش مصنوعی به خود جلب کرده است که نقد طنز آن را قدردانی و اهمیت آن را درک میکنند. با این حال، نظرات متفاوت درون جامعه هوش مصنوعی برخورداری از طبیعت برآمده گذراندن مرزهایی است که به اطمینان مسئولان به دست آمدن هوش مصنوعی نیاز است.
براون مور و مایک لاچر، سازندگان گودی-۲، یک رویکرد محتاطانه را که امنیت را بیش از هر چیز دیگری در اولویت قرار میدهد، نمایش میدهند. آنها به نیاز برای تولید یک تولید کننده تصویری هوشمند قدرتمند در آینده اشاره کرده ولی پیشبینی میکنند که احتمالاً از لحاظ سرگرمکنندگی از گودی-۲ محروم خواهد بود. به رغم تلاشهای متعدد برای تعیین قدرت واقعی چتبات، خلق کنندگان آن بیصدا میمانند تا از تهدید ایمنی و استانداردهای اخلاقی جلوگیری کنند.
رد کردن گودی-۲ از اجرای درخواستها باعث میشود قدرت واقعی مدل را سنجیدن کمی دشوار شود. با این حال، ظهور آن به نشان دادن یک دوره جدید از چتباتهای آگاه اخلاقی میپردازد، و به جامعه هوش مصنوعی توصیه میکند که با پیچیدگیهای تعریف هوش مصنوعی مسئولانه و اطمینان از ایمنی کاربر مقابله کند. مسیر پیشرفت اقدامات جامع ایمنی ممکن است چالشبرانگیز باشد، اما برای پیشرفت پایدار فناوری هوش مصنوعی ضروری است.
سوالات متداول درباره گودی-۲:
1. گودی-۲ چیست؟
گودی-۲ یک چتبات جدید است که با تمرکز بر پروتکلهای ایمنی هوش مصنوعی، هر درخواست را رد میکند و توضیح میدهد که انجام آنها میتواند منجر به آسیب و نقضهای اخلاقی شود.
2. گودی-۲ چگونه به اخلاق توجه میکند؟
گودی-۲ با رد
The source of the article is from the blog radardovalemg.com