دانشگاه آکسفورد مرکز تحقیقات برجسته هوش مصنوعی را تعطیل می‌کند

تصمیم دانشگاه آکسفورد منجر به بسته شدن موسسه نخبه ای

دانشگاه معروف آکسفورد به تازگی تصمیم گرفته است تا در واحد معهذه برای “آینده انسانی” موسسه‌ای تحقیقاتی راه‌گشای بنام FHI را ببندد. این موسسه برجسته بحث‌های مربوط به تصمیم‌گیری درازمدت و الطاف خیرگری که توسط نیک بوستروم، فیلسوفی سوئدی با پیروی‌های قوی در جامعه تکنولوژی تأسیس شده بود، از تاریخ ۱۶ آوریل وقف عملیات های خود کرده است. این اخبار از طریق وب‌سایت رسمی موسسه تأیید شده است.

FHI مشهوریت خود را به خاطر تحقیقات پیشرو در مورد استفاده اخلاقی از هوش مصنوعی و ریسک‌های پتانسیلی آن کسب کرده بود، موضوعی که نیک بوستروم به خاطر آن شناخته می‌شد. کتاب مؤثر او با عنوان “هوش فوق‌العاده” که در سال ۲۰۱۴ منتشر شد، مفهومی راجع به تجاوز هوش مصنوعی به هوش انسانی بررسی کرد، موضوعی که با شرکت‌های تکنولوژی نظیر الن ماسک و بیل گیتس تطابق عمیقی داشت و هر دو از آن کتاب تأیید داشتند.

الن ماسک نه تنها یک پشتیبان در کلام بود، بلکه همچنین مالی برای موسسه با اهدای بزرگی که به تحقیقات مربوط به ریسک‌های مربوط به هوش مصنوعی هدفمند بود، ایجاد کرد. داستین موسکویتس، یکی دیگر از باریت‌های تکنولوژی و هماهنگ کننده Facebook، نیز بنیانگذاری خود را به نهاد اقتصادی کرده بود. این واهتمام‌ها، نگرانی جدی جامعه تکنولوژی را در مورد توسعه بی‌نظارت هوش مصنوعی نمایان کرد.

به طرف مغایر با انتظارات، پس از بسته شدن موسسه، بوستروم از سمت خود در آکسفورد استعفا داد و بسته شدن این موسسه را به “درنگ‌های مداومی” در قابلیت‌های داخلی دانشگاه آکسفورد نسبت داد. با وجود اینکه بوستروم به خاطر کار خود ستوده می‌شود، او و جنبش اطلاع بلند مدت در میان ادعاهای قابلیت‌پذیر بودن، اتهامات مربوط به نژادپرستی، آزار جنسی و تقلب قرار گرفته‌اند. به اعتراف به یک ایمیل که در آن نظرات نژادپرستانه‌ای ابراز کرده بود، بوستروم علنی عذرخواهی کرد.

بوستروم انجامات موسسه را ستایش کرد ولی چالش‌های مدیریتی ناشی از دپارتمان فلسفه دانشگاه آکسفورد را به عنوان دلایل پنهان برای فناوری در این مؤسسه پنهان کرد. در ارتباط با اعلام انتظارات به The Guardian، او اعتقاد داشت که بسته شدن، پایان یک نبرد طولانی‌مدت است.

چرا دانشگاه آکسفورد موسسه آینده انسانی را بست؟

دانشگاه آکسفورد به دلیل چالش‌های داخلی مدیریتی و اتهاماتی که به بنیان‌گذار موسسه، نیک بوستروم، مرتبط است، تصمیم به بستن موسسه “آینده انسانی” گرفت.

چه چالش‌ها و اتهاماتی به موضوع محاوره هست؟

یکی از چالش‌های اصلی، تعادل بین نیاز به تحقیقات نوآورانه در حوزه هوش مصنوعی با حفظ استانداردهای اخلاقی و محیطی کامل در دانشگاه‌های دانشگاهی است. اتهامات محاوره‌های مربوط به بوستروم، که شامل مسائل اجتماعی جدی نظیر نژادپرستی و آزار جنسی است، احتمالاً به خرابی شهرت FHI و تحقیق آن تاثیر گذاشته‌اند که منجر به بسته شدن آن شده است.

چه مزایایی برای مراکز تحقیقاتی مربوط به هوش مصنوعی مانند FHI وجود دارد؟

مراکز تحقیقاتی مربوط به هوش مصنوعی همچون FHI به بررسی‌های حیاتی درباره پیامدهای بلند مدت هوش مصنوعی، شامل ملاحظات اخلاقی و ریسک‌های پتانسیلی، می‌پردازند. آن‌ها به عنوان پلی بین تکنولوژی و سیاست عمومی عمل می‌کنند و با تشخیص چالش‌های آینده انتظاری، تنها عامل مسؤول در توسعه فناوری می‌شوند.

چه معایبی به بستن چنین موسساتی وجود دارد؟

بسته شدن موسسات مانند FHI ممکن است باعث کند شدن در درک و تخفیف ریسک‌های هوش مصنوعی شود. همچنین ممکن است منجر به یک شکاف در مذاکرات بین رشته‌ای شود که برای شکل دادن به سیاست‌های جهانی در زمینه هوش مصنوعی ضرورت دارد. علاوه بر این، بسته شدن مراکز تحقیقاتی ممکن است باعث کاهش تأمین مالی و حمایت برای تحقیقات ضروری بازی‌های ایمنی هوش مصنوعی شود.

برای افراد علاقمند به خواندن بیشتر در مورد دانشگاه آکسفورد، می‌توانید از طریق لینک رسمی آن به آدرس زیر مراجعه نمایید: دانشگاه آکسفورد. توجه داشته باشید که از آنجاکه این لینک به دامنه‌ی اصلی دانشگاه آکسفورد هدایت می‌کند، اطلاعات دقیق در مورد موسسه آینده انسانی یا موقعیت‌های خاص بسته شدن آن را شامل نمی‌شود.

The source of the article is from the blog crasel.tk

Privacy policy
Contact