تصمیم دانشگاه آکسفورد منجر به بسته شدن موسسه نخبه ای
دانشگاه معروف آکسفورد به تازگی تصمیم گرفته است تا در واحد معهذه برای “آینده انسانی” موسسهای تحقیقاتی راهگشای بنام FHI را ببندد. این موسسه برجسته بحثهای مربوط به تصمیمگیری درازمدت و الطاف خیرگری که توسط نیک بوستروم، فیلسوفی سوئدی با پیرویهای قوی در جامعه تکنولوژی تأسیس شده بود، از تاریخ ۱۶ آوریل وقف عملیات های خود کرده است. این اخبار از طریق وبسایت رسمی موسسه تأیید شده است.
FHI مشهوریت خود را به خاطر تحقیقات پیشرو در مورد استفاده اخلاقی از هوش مصنوعی و ریسکهای پتانسیلی آن کسب کرده بود، موضوعی که نیک بوستروم به خاطر آن شناخته میشد. کتاب مؤثر او با عنوان “هوش فوقالعاده” که در سال ۲۰۱۴ منتشر شد، مفهومی راجع به تجاوز هوش مصنوعی به هوش انسانی بررسی کرد، موضوعی که با شرکتهای تکنولوژی نظیر الن ماسک و بیل گیتس تطابق عمیقی داشت و هر دو از آن کتاب تأیید داشتند.
الن ماسک نه تنها یک پشتیبان در کلام بود، بلکه همچنین مالی برای موسسه با اهدای بزرگی که به تحقیقات مربوط به ریسکهای مربوط به هوش مصنوعی هدفمند بود، ایجاد کرد. داستین موسکویتس، یکی دیگر از باریتهای تکنولوژی و هماهنگ کننده Facebook، نیز بنیانگذاری خود را به نهاد اقتصادی کرده بود. این واهتمامها، نگرانی جدی جامعه تکنولوژی را در مورد توسعه بینظارت هوش مصنوعی نمایان کرد.
به طرف مغایر با انتظارات، پس از بسته شدن موسسه، بوستروم از سمت خود در آکسفورد استعفا داد و بسته شدن این موسسه را به “درنگهای مداومی” در قابلیتهای داخلی دانشگاه آکسفورد نسبت داد. با وجود اینکه بوستروم به خاطر کار خود ستوده میشود، او و جنبش اطلاع بلند مدت در میان ادعاهای قابلیتپذیر بودن، اتهامات مربوط به نژادپرستی، آزار جنسی و تقلب قرار گرفتهاند. به اعتراف به یک ایمیل که در آن نظرات نژادپرستانهای ابراز کرده بود، بوستروم علنی عذرخواهی کرد.
بوستروم انجامات موسسه را ستایش کرد ولی چالشهای مدیریتی ناشی از دپارتمان فلسفه دانشگاه آکسفورد را به عنوان دلایل پنهان برای فناوری در این مؤسسه پنهان کرد. در ارتباط با اعلام انتظارات به The Guardian، او اعتقاد داشت که بسته شدن، پایان یک نبرد طولانیمدت است.
چرا دانشگاه آکسفورد موسسه آینده انسانی را بست؟
دانشگاه آکسفورد به دلیل چالشهای داخلی مدیریتی و اتهاماتی که به بنیانگذار موسسه، نیک بوستروم، مرتبط است، تصمیم به بستن موسسه “آینده انسانی” گرفت.
چه چالشها و اتهاماتی به موضوع محاوره هست؟
یکی از چالشهای اصلی، تعادل بین نیاز به تحقیقات نوآورانه در حوزه هوش مصنوعی با حفظ استانداردهای اخلاقی و محیطی کامل در دانشگاههای دانشگاهی است. اتهامات محاورههای مربوط به بوستروم، که شامل مسائل اجتماعی جدی نظیر نژادپرستی و آزار جنسی است، احتمالاً به خرابی شهرت FHI و تحقیق آن تاثیر گذاشتهاند که منجر به بسته شدن آن شده است.
چه مزایایی برای مراکز تحقیقاتی مربوط به هوش مصنوعی مانند FHI وجود دارد؟
مراکز تحقیقاتی مربوط به هوش مصنوعی همچون FHI به بررسیهای حیاتی درباره پیامدهای بلند مدت هوش مصنوعی، شامل ملاحظات اخلاقی و ریسکهای پتانسیلی، میپردازند. آنها به عنوان پلی بین تکنولوژی و سیاست عمومی عمل میکنند و با تشخیص چالشهای آینده انتظاری، تنها عامل مسؤول در توسعه فناوری میشوند.
چه معایبی به بستن چنین موسساتی وجود دارد؟
بسته شدن موسسات مانند FHI ممکن است باعث کند شدن در درک و تخفیف ریسکهای هوش مصنوعی شود. همچنین ممکن است منجر به یک شکاف در مذاکرات بین رشتهای شود که برای شکل دادن به سیاستهای جهانی در زمینه هوش مصنوعی ضرورت دارد. علاوه بر این، بسته شدن مراکز تحقیقاتی ممکن است باعث کاهش تأمین مالی و حمایت برای تحقیقات ضروری بازیهای ایمنی هوش مصنوعی شود.
برای افراد علاقمند به خواندن بیشتر در مورد دانشگاه آکسفورد، میتوانید از طریق لینک رسمی آن به آدرس زیر مراجعه نمایید: دانشگاه آکسفورد. توجه داشته باشید که از آنجاکه این لینک به دامنهی اصلی دانشگاه آکسفورد هدایت میکند، اطلاعات دقیق در مورد موسسه آینده انسانی یا موقعیتهای خاص بسته شدن آن را شامل نمیشود.
The source of the article is from the blog crasel.tk