نگرانی‌ها به وجود می‌آیند زمانی که OpenAI تیم کلیدی امنیت هوش مصنوعی را منحل می‌کند

این فضای استارتاپی آمریکایی OpenAI، پشتوانه اصلی پژوهش در زمینه هوش مصنوعی که توسط مدل گفت‌و‌گو ChatGPG راه اندازی شده است، در حالی که مقابل یک نگرانی روزافزون درباره نگرش خود نسبت به خطرات هوش مصنوعی قرار دارد، به دست آورده است. این نگرانی پس از اینکه شرکت تصمیم به حل تیم همتایی فوق العاده خود گرفته بود، با اطلاع رسانی از سوی چندین رسانه آمریکایی در تاریخ 17 مه 2024، به وجود آمد.

بنیان‌گذاری شده در ژوئیه 2023، تیم همتایی فوق العاده مأموریت داشت تا ارزش‌ها و اهداف انسانی را در مدل‌های هوش مصنوعی جای داده و آنها را به‌گونه‌ای مفید، ایمن و قابل اعتماد کند. متأسفانه، این آغازین پس از حدود ده ماه به پایان ناگواری رسید در نتیجه اختلالات داخلی.

ایده “هم‌آغازی هوش مصنوعی” درباره اطمینان حاصل کردن از این نکات است که سیستم‌های هوش مصنوعی در مقابل اراده‌های انسانی بی‌رویه عمل نکنند. این یک زمینه اساسی پژوهش برای OpenAI بود، که هدف بلندآوازه‌ای را در توسعه هوش مصنوعی عمومی (AGI) داشت که هوش انسان را بوقوع بزند. با این وجود، به رغم تلاش‌هایشان برای توسعه چنین AGI، OpenAI در وبلاگ خود اعلام کرده است که بشر هنوز کنترل کاملی بر این فناوری ندارد.

اعلان OpenAI اثر موجی با قطب‌های مهمی مانند محققان Ilya Sutskever و Jan Leike به همراه اخلال شدن فوریت شکل گرفت، زیرا روزی بعد از اعلام مدل آخرین آنها، GPT-4o، با استعفا از سوی خود شبکه‌های اجتماعی، Jan Leike به عدم توافق با اولویت‌های اصلی OpenAI اشاره کرد. گزارش‌های بعدی تأیید کردند که Leike به Anthropic پیوسته است، یک رقیب تأسیس شده توسط پرسنل پیشین OpenAI، تقویت نکات جالب درون صنعت هوش مصنوعی را نشان می‌دهند.

انتقادات نه تنها در ارتباط با هم‌آغازی سیستم‌های هوش مصنوعی فوق هوشمند با اراده‌های انسانی بلکه همچنین در ارتباط با اولویت‌بندی رشد تجاری نسبت به ایمنی هوش مصنوعی – تعادلی که مشکلات با آن دارد – در OpenAI می‌چرخد. این بحث از اهمیت بسیاری برخوردار است، زیرا پیشرفت باز کنترل‌ناپذیر هوش مصنوعی می‌تواند به خطرات بی‌نظیر و تهدیدات هستی شناخته نشده ایجاد کند.

زمینه‌ای ایمن‌تر و هم‌آغاز برای هوش فوق‌العاده چالش بزرگی است. این حلوری متوجه می‌شود که وقت آن رسیده است که بازیگران جدیدی در این زمینه این عنوان را برگذار کنند و اطمینان حاصل کنند که جهش‌های فناوری ما خواست‌های اصولی و ایمنی ما را مغلوب نخواهد کرد.

چرا هم‌آغازی هوش مصنوعی مهم است؟

هم‌آغازی هوش مصنوعی از اهمیت به‌سزایی برخوردار است، زیرا این موضوع درباره اطمینان حاصل کردن از آن است که هنگامی که سیستم‌های هوش مصنوعی هوشمندتر و خودمختارتر می‌شوند، اقدامات و تصمیمات آنها هنوز هم با ارزش‌ها و اخلاقیات انسانی سازگار باشند. بدون هم‌آغازی مناسب، ریسکی می‌تواند وجود داشته باشد که هوش مصنوعی به نفع بهترین منافع انسان عمل نکند و ممکن است صدمه بزند و یا به شیوه‌هائی که با اهداف و نیات ما هم‌خوان نیستند، عمل کند. این امر ویژه در مرحله نزدیک شدن به توسعه AGI صحیح است، جایی که سیستم‌های هوش مصنوعی ممکن است تصمیمات پیچیده‌ای با پیامدهای گسترده‌ای اتخاذ کنند.

چه چالش‌هایی با حل سرنگونی تیم همتایی فوق العاده OpenAI همراه است؟

سرنگونی چندین چالش را ارائه کرده است. ابتدا معتبریت توسعه‌دهندگان هوش مصنوعی را نه تنها نسبت به ایمنی و پیامدهای اخلاقی فناوری‌های خود، بلکه به موقعیت نقد بنا می‌کند. ثانیا، احتمالاً پیشرفت در یک حوزه پژوهشی اساسی که برای پیشرفت ایمن AGI ضروری است، را کاهش می‌دهد. سوما، اختلالات داخلی در سازمان‌های برجسته هوش مصنوعی می‌تواند به فرسودگی استعدادها انجامد، زیرا محققان برتر ممکن است محیطی که در آن احساس می‌کنند ایمنی هوش به‌عنوان اولویت داده می‌شود، جویا شوند، همانطور که از جدایی Jan Leike نشان داده شد.

چه چالش‌هایی پیرامون تصمیم OpenAI مورد انتقاد است؟

از نگرانی‌ها اینکه OpenAI اولویت‌بندی منافع تجاری را نسبت به توجهات ایمنی و اخلاقیات توسعه هوش مصنوعی به کار می‌گیرد، کنار دیده نمی‌شود. این اولویت‌بندی می‌تواند کاملیت اقدامات ایمنی را در پیشرفت سریع و عرضه مدل‌های جدید هوش مصنوعی تخریب کند، ممکن است خطراتی برای مصرف‌کنندگان و جامعه به طور گسترده‌تر تجلی دهد. علاوه بر این، بحثی در مورد این است که آیا OpenAI می‌تواند وفادار به ماموریت خود که اطمینان حاصل کنند که AGI بهره‌برداری از انسان‌ها را دارد، بماند یا خیر اگر هدف‌های مالی اولویت‌های ایمنی را از پس ببرند.

مزایا و معایب وضعیت چه هستند؟

مزایا:
– پیشرفت پایدار OpenAI در حوزه هوش مصنوعی ممکن است به تکنولوژی‌های و خدمات جدید و مفید منجر شود.
– تغییرات در OpenAI می‌تواند مبحث‌های باز و افزایش آگاهی را درباره اهمیت ایمنی هوش مصنوعی ایجاد کند.

معایب:
– حل‌وفاق تیم همتایی فوق‌العاده می‌تواند تحقیقات اساسی در جای دادن ارزش‌های انسانی در سیستم‌های هوش مصنوعی را به خطر اندازد.
– ممکن است این اقدام نشانه‌ای از یک روند نگران‌کننده باشد که اولویت‌های تجاری از توجهات ایمنی در توسعه هوش مصنوعی جلوگیری کند، ممکن است به پیامدهای آسیب‌زایی یا ناخواسته منجر شود.
– این حرکت ممکن است باور عمومی به هوش مصنوعی و شرکت‌های توسعه دهنده این فناوری‌ها را دچار خسارت کند.

پیشنهادات لینک‌های مرتبط:
– برای افرادی که تمایل به درک پیامدهای گسترده هوش مصنوعی و حکومت آن دارند، به سایت مؤسسه آینده زندگی به نشانی futureoflife.org مراجعه کنید.
– برای کاوش آخرین توسعه‌ها در هوش مصنوعی و بحث‌های اخلاقی مرتبط، به سایت مؤسسه AI Now با آدرس ainowinstitute.org مراجعه کنید.

لطفا توجه داشته باشید که من قادر به تأیید اعتبار URL‌ها نیستم چرا که قابلیت مرور اینترنت من غیرفعال است، اما این URL‌ها بر اساس سازمان‌های خوب شناخته‌شده برای کارهایشان در حوزه ایمنی و اخلاق هوش مصنوعی، پیشنهاد شده‌اند.

[ویدئو](https://www.youtube.com/embed/1_pynDLl6Xk)افزوده شده است.

The source of the article is from the blog rugbynews.at

Privacy policy
Contact