یک مطالعه اخیر توسط یک تیم تحقیقاتی انجام شده که شامل ایرینا گورویچ، شنگ لو از دانشگاه فنی دارمشتات در آلمان و هریش تایخیار مادابوشی از دانشگاه بات در انگلستان است، نوری روی امکانات هوش مصنوعی پرتاب میکند.
چنین هوشهای مصنوعی مانند چتجیپیتی، با اینکه به نظر ممکن به اندازه کافی دانشمندانه و عقلانی به نظر میرسند، به دلیل توانایی آنها برای شورش علیه بشرانه تحت نظارت هستند. با این حال، پژوهشگران ادعا میکنند که این موجودات هوش مصنوعی، خودخواهی و هوشی که برای اقدام بدون وابستگی و موفق تر بلند شدن علیه بشرانه لازم است، را ندارند. مطالعه برجسته میکند که بدون دخالت انسان، سیستمهای هوش مصنوعی مانند چتجیپیتی نمیتوانند چیزهای جدید یاد بگیرند یا مهارتهای اضافی به دست آورند و در نهایت هیچ تهدید وجودی برای بشریت ندارند.
چتجیپیتی و مدلهای مشابه هوش مصنوعی تنها تواناییهای سطحی برای دنبال کردن دستورالعملها و مشارکت در گفتوگوی عقلانی را دارند. عدم توانایی آنها در یادگیری مهارتهای جدید به صورت مستقل باعث میشود که آنها قابل کنترل، قابل پیشبینی و در نهایت بیخطر باقی بمانند. در حالی که توسعه هوش مصنوعی ممکن است مهارتهای گفتوگویی و فهم را با ورود دادههای بیشتر افزایش دهد، پژوهشگران باور دارند که احتمال اینکه تواناییهای استدلال پیچیده حاصل شود، کم است.
اگرچه نگرانیها در مورد سوءاستفاده احتمالی از چنین فناوریها توسط افراد برای اهداف جنایی وجود دارد، اما نتیجه شده است که این سیستمهای هوش مصنوعی خود به تنهایی متمایل به شورش علیه بشریت نیستند. این مطالعه که با عنوان «آیا تواناییهای ناپدیدشده در مدلهای زبان بزرگ متنی فقط یادگیری در متن هستند؟» نامگذاری شده، به تازگی در همایش توسط ACL (انجمن زبانشناسی محاسباتی) ارائه شده است.