این فضای استارتاپی آمریکایی OpenAI، پشتوانه اصلی پژوهش در زمینه هوش مصنوعی که توسط مدل گفتوگو ChatGPG راه اندازی شده است، در حالی که مقابل یک نگرانی روزافزون درباره نگرش خود نسبت به خطرات هوش مصنوعی قرار دارد، به دست آورده است. این نگرانی پس از اینکه شرکت تصمیم به حل تیم همتایی فوق العاده خود گرفته بود، با اطلاع رسانی از سوی چندین رسانه آمریکایی در تاریخ 17 مه 2024، به وجود آمد.
بنیانگذاری شده در ژوئیه 2023، تیم همتایی فوق العاده مأموریت داشت تا ارزشها و اهداف انسانی را در مدلهای هوش مصنوعی جای داده و آنها را بهگونهای مفید، ایمن و قابل اعتماد کند. متأسفانه، این آغازین پس از حدود ده ماه به پایان ناگواری رسید در نتیجه اختلالات داخلی.
ایده “همآغازی هوش مصنوعی” درباره اطمینان حاصل کردن از این نکات است که سیستمهای هوش مصنوعی در مقابل ارادههای انسانی بیرویه عمل نکنند. این یک زمینه اساسی پژوهش برای OpenAI بود، که هدف بلندآوازهای را در توسعه هوش مصنوعی عمومی (AGI) داشت که هوش انسان را بوقوع بزند. با این وجود، به رغم تلاشهایشان برای توسعه چنین AGI، OpenAI در وبلاگ خود اعلام کرده است که بشر هنوز کنترل کاملی بر این فناوری ندارد.
اعلان OpenAI اثر موجی با قطبهای مهمی مانند محققان Ilya Sutskever و Jan Leike به همراه اخلال شدن فوریت شکل گرفت، زیرا روزی بعد از اعلام مدل آخرین آنها، GPT-4o، با استعفا از سوی خود شبکههای اجتماعی، Jan Leike به عدم توافق با اولویتهای اصلی OpenAI اشاره کرد. گزارشهای بعدی تأیید کردند که Leike به Anthropic پیوسته است، یک رقیب تأسیس شده توسط پرسنل پیشین OpenAI، تقویت نکات جالب درون صنعت هوش مصنوعی را نشان میدهند.
انتقادات نه تنها در ارتباط با همآغازی سیستمهای هوش مصنوعی فوق هوشمند با ارادههای انسانی بلکه همچنین در ارتباط با اولویتبندی رشد تجاری نسبت به ایمنی هوش مصنوعی – تعادلی که مشکلات با آن دارد – در OpenAI میچرخد. این بحث از اهمیت بسیاری برخوردار است، زیرا پیشرفت باز کنترلناپذیر هوش مصنوعی میتواند به خطرات بینظیر و تهدیدات هستی شناخته نشده ایجاد کند.
زمینهای ایمنتر و همآغاز برای هوش فوقالعاده چالش بزرگی است. این حلوری متوجه میشود که وقت آن رسیده است که بازیگران جدیدی در این زمینه این عنوان را برگذار کنند و اطمینان حاصل کنند که جهشهای فناوری ما خواستهای اصولی و ایمنی ما را مغلوب نخواهد کرد.
چرا همآغازی هوش مصنوعی مهم است؟
همآغازی هوش مصنوعی از اهمیت بهسزایی برخوردار است، زیرا این موضوع درباره اطمینان حاصل کردن از آن است که هنگامی که سیستمهای هوش مصنوعی هوشمندتر و خودمختارتر میشوند، اقدامات و تصمیمات آنها هنوز هم با ارزشها و اخلاقیات انسانی سازگار باشند. بدون همآغازی مناسب، ریسکی میتواند وجود داشته باشد که هوش مصنوعی به نفع بهترین منافع انسان عمل نکند و ممکن است صدمه بزند و یا به شیوههائی که با اهداف و نیات ما همخوان نیستند، عمل کند. این امر ویژه در مرحله نزدیک شدن به توسعه AGI صحیح است، جایی که سیستمهای هوش مصنوعی ممکن است تصمیمات پیچیدهای با پیامدهای گستردهای اتخاذ کنند.
چه چالشهایی با حل سرنگونی تیم همتایی فوق العاده OpenAI همراه است؟
سرنگونی چندین چالش را ارائه کرده است. ابتدا معتبریت توسعهدهندگان هوش مصنوعی را نه تنها نسبت به ایمنی و پیامدهای اخلاقی فناوریهای خود، بلکه به موقعیت نقد بنا میکند. ثانیا، احتمالاً پیشرفت در یک حوزه پژوهشی اساسی که برای پیشرفت ایمن AGI ضروری است، را کاهش میدهد. سوما، اختلالات داخلی در سازمانهای برجسته هوش مصنوعی میتواند به فرسودگی استعدادها انجامد، زیرا محققان برتر ممکن است محیطی که در آن احساس میکنند ایمنی هوش بهعنوان اولویت داده میشود، جویا شوند، همانطور که از جدایی Jan Leike نشان داده شد.
چه چالشهایی پیرامون تصمیم OpenAI مورد انتقاد است؟
از نگرانیها اینکه OpenAI اولویتبندی منافع تجاری را نسبت به توجهات ایمنی و اخلاقیات توسعه هوش مصنوعی به کار میگیرد، کنار دیده نمیشود. این اولویتبندی میتواند کاملیت اقدامات ایمنی را در پیشرفت سریع و عرضه مدلهای جدید هوش مصنوعی تخریب کند، ممکن است خطراتی برای مصرفکنندگان و جامعه به طور گستردهتر تجلی دهد. علاوه بر این، بحثی در مورد این است که آیا OpenAI میتواند وفادار به ماموریت خود که اطمینان حاصل کنند که AGI بهرهبرداری از انسانها را دارد، بماند یا خیر اگر هدفهای مالی اولویتهای ایمنی را از پس ببرند.
مزایا و معایب وضعیت چه هستند؟
مزایا:
– پیشرفت پایدار OpenAI در حوزه هوش مصنوعی ممکن است به تکنولوژیهای و خدمات جدید و مفید منجر شود.
– تغییرات در OpenAI میتواند مبحثهای باز و افزایش آگاهی را درباره اهمیت ایمنی هوش مصنوعی ایجاد کند.
معایب:
– حلوفاق تیم همتایی فوقالعاده میتواند تحقیقات اساسی در جای دادن ارزشهای انسانی در سیستمهای هوش مصنوعی را به خطر اندازد.
– ممکن است این اقدام نشانهای از یک روند نگرانکننده باشد که اولویتهای تجاری از توجهات ایمنی در توسعه هوش مصنوعی جلوگیری کند، ممکن است به پیامدهای آسیبزایی یا ناخواسته منجر شود.
– این حرکت ممکن است باور عمومی به هوش مصنوعی و شرکتهای توسعه دهنده این فناوریها را دچار خسارت کند.
پیشنهادات لینکهای مرتبط:
– برای افرادی که تمایل به درک پیامدهای گسترده هوش مصنوعی و حکومت آن دارند، به سایت مؤسسه آینده زندگی به نشانی futureoflife.org مراجعه کنید.
– برای کاوش آخرین توسعهها در هوش مصنوعی و بحثهای اخلاقی مرتبط، به سایت مؤسسه AI Now با آدرس ainowinstitute.org مراجعه کنید.
لطفا توجه داشته باشید که من قادر به تأیید اعتبار URLها نیستم چرا که قابلیت مرور اینترنت من غیرفعال است، اما این URLها بر اساس سازمانهای خوب شناختهشده برای کارهایشان در حوزه ایمنی و اخلاق هوش مصنوعی، پیشنهاد شدهاند.
[ویدئو](https://www.youtube.com/embed/1_pynDLl6Xk)افزوده شده است.
The source of the article is from the blog rugbynews.at