مکس تگمارک، یک فیزیکدان برجسته و داعی توسعه امن هوش مصنوعی (AI)، هشدار آگاهکنندهای درباره تهدید وجودیی که AI برای بشر ایجاد میکند، صادر کرده است. در یک کنفرانس درباره AI در سئول سخنرانی کردهاست، تگمارک بر جریان بومی این صنعت از خطرات موجود به مسائل کلی امنیتی تاخت و بی انگیزه میشود که ممکن است پیچیدگیهای لازم برای سیستمهای هوشی قوی را به طور تصادفی بیاختیار به تعویق بیندازد.
با تشبیه تاریخی، تگمارک وضعیت فعلی توسعه AI را با لحظه مهمی در فیزیک هستهای مقایسه کرد. او توضیح داد که یک درک عمیق از فیزیکدانان پیشگام زمانی به آنها فهماند که زمانی که انریکو فرمی اولین راکتور هستهای دائمی را ساخت، به این معنی بود که برنامه اصلی برای ساخت سلاحهای هستهای پشتپاه شده بود. این باعث شد اونها درک کنند که ساخت بمب اتمی اکنون فقط مساله چندین ساله است، به واقع یک بمب فقط در سه سال خواهد شد.
به همین شیوه، تگمارک از خطرات مدلهای AI که میتوانند آزمون تورینگ را پشت سر بگذارند و غیر قابل تمایز از انسانها در ارتباط باشند، هشدار داد. پیشرفتهای چنینی همانند خطرانهای هستند زیرا تضمینی برای کنترل دائمی بر این الگوریتمها وجود ندارد.
با ابراز نگرانیهای خود که تازه و اخیرا توسط بنیانگذاران صنعتی مثل جیفری هینتون و یوشوا بنجیو، به همراه مدیران ارشد شرکتهای فناوری بزرگ عمومی شدهاست، تگمارک ناله کرد که پیشنهاد یک ممنوعیت شش ماهه روی تحقیقات AI بیتوجه مانده بود. جلسات سطح بالا همچنان بیشتر بر تعیین اصول تنظیمات تمرکز دارند تا به مشکلات فوری پرداخته شود. فیزیکدان به خطر جدا کردن مسائل مهمتر مربوط به AI، از روشهای انحراف صنعت دخانیات، اش
با این حال تگمارک امیدآور است، به آنگاه میاشاره کرده است که جریان دیدگاههای عمومی ممکن است دارد تغییر کند، زیرا حتی افراد هر روزه نگرانیهای خود را درباره جایگزین شدن انسانها توسط AI بیان میکنند. او بر اهمیت حرکت از گفتگو به اقدام ملموس تاکید کرد، حمایت از استانداردهای ایمنی تحت نظر دولت بهعنوان تنها راه پیشروی برای یک آینده امن AI.
مکس تگمارک، یک فیزیکدان نگران از ایمنی AI، نه تنها بر موارد خطرناک AI پیشرفته تاکید دارد بلکه نیاز به تدابیر پیشگیرانه را هم ابراز میکند. بحث پیرامون ایمنی AI چند وجهی بوده که باعث ارائه سوالات و چالشها برای توسعهدهندگان، سیاستگذاران و عموم مردم شدهاست.
مهمترین سوالات مربوط به ایمنی AI ممکن است شامل:
– چگونه میتوانیم اطمینان حاصل کنیم که سیستمهای AI با ارزشها و اخلاق انسانی همخوانی دارند؟
– چه چارچوبهای تنظیمی برای حکومت کردن توسعه و اجرای AI لازم است؟
– چطور میتوانیم جلوی سوءاستفاده از AI یا هدایت ما به پیامدهای ناخواسته را بگیریم؟
– چه اقداماتی میتوان انجام داد تا خطرات مرتبط با پیشرفت AI به اندازهای بالاتر از هوش انسان مطرح شود؟
چالشها یا اختلافات کلیدی مرتبط با ایمنی AI معمولاً حول تب رویایی میگردند:
– مشکل در پیشبینی رفتار سیستمهای پیچیده AI، به ویژه هنگامی که بیشتر خودگردان میشوند.
– خطرات یک مسابقه جنگ ارتشی AI بین کشورها یا شرکتها، جایی که تحریک برای پیشرفت بیش از اندازه مسائل امنیتی را بیخیال میکند.
– نگرانیهای اخلاقی مانند بیکاری و توانایی AI در اتخاذ تصمیماتی که ممکن است با برخورد با رفاه انسانی ناسازگار باشد.
– شفافیت الگوریتمهای AI و اینکه آیا کاربران پایههای بر پایۀ چه اساسی تصمیمگیری شده است، مورد درک آنهاست.
مزایا و معایب تمرکز بر ایمنی AI شامل:
مزایا:
– جلوگیری از خطرات وجودی به وجود آمده به دلیل پیشرفت ناخواسته AI بیکنترل.
– تطابق فناوری AI با ارزشها و اخلاق انسانی تا اطمینان حاصل شود که به جامعه سود میبخشد.
– پیشبینی و مدیریت تأثیرات اجتماعی، از جمله بهبود کیفیت زندگی و اختلال در بازار کار.
معایب:
– تنظیمات محدودیتی ممکن است منجر به کاهش نوآوری و توسعه فناوریهای AI مفید شود.
– ممکن است موجب گمراهی در استانداردها و تنظیمات بینالمللی شود که به خسارتهای رقابتی منتهی میشود.
– تکیه بر خطرات فرضی ممکن است توجه را از مرتط الگوریتمها و اشتباهات فعلی AI منحرف کند.
در نظر گرفتن منابع اطلاعاتی مرتبط، مهم است که به سازمانهای قابل اعتمادی که تحقیقات در زمینه AI و اخلاق انجام میدهند مراجعه کنید. موسسات بزرگی چون موسسه آینده زندگی، که توسط مکس تگمارک تأسیس شده است، اغلب این موضوعات را به طور گسترده بررسی میکنند. برای دانستن بیشتر درباره AI و تأثیرات جامعهای آن، ممکن است به موارد زیر مراجعه کنید:
– موسسه آینده زندگی
– AI Global
– پیوند درباره AI
با نگرش ایمنی AI از دیدگاه اطلاعاتی و ترویج همکاری جهانی، احتمالاً جامعه از شرایط AI بهرهمند میشود درحالی که دربرابر خطرات آن محافظت خواهد شد.