مشکلات پیش می‌آیند زمانی که OpenAI گروه کلیدی ایمنی هوش مصنوعی را از بین می‌برد

OpenAI، شرکت نوآوری که به واکنش ChatGPG شروع کناره گیری هوش مصنوعی ایجاد شد، در مسیو یخ بر می افتد وسط نگرانی در حال رشد در مورد نگرش خود نسبت به خطرات هوش مصنوعی قرار گرفته است. این نگرانی پس از بسته شدن شرکت به چهارچوب تیم ‘هم ترازی فوق العاده’ شناخته شده، یک واقعیت گزارده شده توسط چندین ارگان رسانه ای آمریکایی در مورخه 17 مه 2024 است.

تاسیس شده در ژوئیه 2023، تیم هم ترازی فوق العاده موظف بود که ارزش ها و اهداف انسانی را در مدل های هوش مصنوعی جاسازی کند تا آنها در حد امکان مفید، ایمن و قابل اعتماد باشند. متاسفانه، این آغاز به دلیل عدم سازگاری داخلی پس از چندین ماه به سرانجام نرسید.

ایده ‘تطابق هوش مصنوعی’ در مورد اطمینان حاصل کردن از این است که سیستم های هوش مصنوعی مخالف اهداف انسانی اقدام نکنند. این یک زمینه مهم تحقیق در OpenAI بود که هدف جسورانه توسعه هوش عمومی مصنوعی (AGI) است که هوش انسان را پیشی گرفته است. با این حال، با تمام تلاش های خود برای توسعه چنین AGI، OpenAI در وبلاگ خود اعلام کرده که انسان ها هنوز کنترل کامل بر این فناوری را ندارند.

اعلان OpenAI تاثیر موجی ایجاد کرد، با افراد کلیدی مانند پژوهشگران ایلیا سوتسکور و یان لایک که در تاریخ روزی بعد از فاش شدن مدل آخرین OpenAI، GPT-4o استعفا دادند. لایک ترکش را در رسانه های اجتماعی اعلام کرد و دلایل اختلافاتش با رهبری OpenAI بر اساس اولویت های اساسی ذکر کرد. گزارش های پیگیر تایید کرد که لایک به Anthropic پیوست که یک رقیبی است که به وسیله پرسنل سابق OpenAI تاسیس شده، از این جدل در صنعت هوش مصنوعی آگاهی ایجاد کرد.

جدل نه تنها در مورد تطابق سیستم های هوش مصنوعی فوق الذکاء با افکار انسانی است، بلکه همچنین درباره اولویت بندی رشد تجاری نسبت به ایمنی هوش مصنوعی می چرخد – تعادلی که به نظر می رسد OpenAI با آن دست به دست می زند. این مباحث بسیار حیاتی است، زیرا پیشرفت بی نظارت هوش مصنوعی می تواند به خطرات بی سابقه و تهدیدات وجودی منجر شود.

ویژه ایمنی آینده هوش فوق العقلی چالش مهمی است. بستن این تیم نشان می دهد که زمان آن فرآیندی رسیده است که شرکت های جدید در این زمینه این عهده را بر دوش بگیرند و اطمینان حاصل کنند که جهش های فناوری ما از ملاحظات اخلاقی و ایمنی ما جلو نیفتد.

چرا تطابق هوش مصنوعی مهم است؟

تطابق هوش مصنوعی به این دلیل بسیار حائز اهمیت است که در مورد اطمینان حاصل کردن از آن است که چون سیستم های هوش مصنوعی هوشمندتر و خودمختارتر می شوند، اعمال و تصمیمات آنها همچنان با ارزش ها و اخلاقیات انسانی هماهنگ باشند. بدون تطابق مناسب، خطری وجود دارد که هوش مصنوعی احتمالاً به بهترین منافع انسانی عمل نکند و احتمالاً آسیبی بزند یا در حالت ها که با اهداف و قصد ما همخوانی ندارد عمل کند. این واقعیت بخصوص زمانی که به توسعه AGI نزدیک می شویم درست است، جایی که سیستم های هوش مصنوعی می توانند تصمیمات پیچیده ای با پیامدهای گسترده اتخاذ کنند.

چه چالش هایی با وضعیت بسته شدن تیم هم ترازی فوق العاده OpenAI مرتبط است؟

بستن تیم چندین چالش را مطرح می کند. اولاً، به سوال از اعزام توسعه دهندگان هوش مصنوعی نسبت به تامین و تأمیننی برنامه های خود نسبت به ایمنی و پیامدهای اخلاقی فناوری هایشان. ثانیا، این ممکن است پیشرفت در یک حوزه تحقیقاتی اساسی مورد نیاز برای پیشرفت ایمن AGI را کاهش دهد. سوما، دیسفکشن داخلی در سازمان های هوش مصنوعی موهبت فرسایی را به همراه دارد، چرا که پژوهشگران برتر ممکن است محیط هایی را جستجو کنند که حس کنند هوش مصنوعی ایمن اولویت داده می شود، همانطور که توسط جان لایکs پرواز اشاره شده است.

چه بجنبه هایی متصل به این وضعیت وجود دارد؟

سودها:
– پیشرفت مستمر OpenAI در حوزه هوش مصنوعی ممکن است منجر به فناوری های و خدمات جدید مفید در مدت کوتاهی شود.
– تغییرات در OpenAI ممکن است محیط های بیشتری را برای بحث های آزاد و افزایش آگاهی درباره اهمیت ایمنی هوش مصنوعی ایجاد کند.

معایب:
– بستن تیم حرکت فوق العاده همتا ها می تواند سرنخ بندی ایمنی به تحقیقات بحرانی در جاسازی ارزش های انسانی در سیستم های هوش مصنوعی را به تزریق کند.
– این می تواند یک موضوع نگران کننده این موضوع را نشان دهد کهضروریات تجاری سطحی‌مزایای حفاظت تازه از راه آسیب ها یا پیامدهای ناخواسته در توسعه هوش مصنوعی معرفی کند.
– این جابه جایی ممکن است باور عمومی به هوش مصنوعی و شرکت هایی که این فناوری ها را توسعه می دهند را آسیب برساند.

پیوندهای مرتبط پیشنهادی:
– برای کسانی که می خواهند پیامدهای گسترده AI و حاکمیت آن را درک کنند، به سایت علم آینده در Institute of Life at futureoflife.orgمراجعه کنید.
– برای کاوش جدیدترین توسعه های هوش مصنوعی و بحث های اخلاقی مرتبط، به AI Now Institute at ainowinstitute.orgمراجعه کنید.

لطفا توجه داشته باش که من قادر به تایید اعتبار URL ها نیستم چون توانمندی مرور من غیر فعال است، اما این URLs بر اساس سازمان های معتبری که برای کارت در زمینه ایمنی و اخلاقیات هوش مصنوعی شناخته شده انتخاب شده اند.

The source of the article is from the blog exofeed.nl

Privacy policy
Contact