تماس فوری برای ایمنی هوش مصنوعی توسط مکس تگمارک، یک فیزیکدان و فعال

مکس تگمارک، یک فیزیکدان برجسته و داعی توسعه امن هوش مصنوعی (AI)، هشدار آگاه‌کننده‌ای درباره تهدید وجودیی که AI برای بشر ایجاد می‌کند، صادر کرده است. در یک کنفرانس درباره AI در سئول سخنرانی کرده‌است، تگمارک بر جریان بومی این صنعت از خطرات موجود به مسائل کلی امنیتی تاخت و بی انگیزه می‌شود که ممکن است پیچیدگی‌های لازم برای سیستم‌های هوشی قوی را به طور تصادفی بی‌اختیار به تعویق بیندازد.

با تشبیه تاریخی، تگمارک وضعیت فعلی توسعه AI را با لحظه مهمی در فیزیک هسته‌ای مقایسه کرد. او توضیح داد که یک درک عمیق از فیزیکدانان پیشگام زمانی به آنها فهماند که زمانی که انریکو فرمی اولین راکتور هسته‌ای دائمی را ساخت، به این معنی بود که برنامه اصلی برای ساخت سلاح‌های هسته‌ای پشت‌پاه شده بود. این باعث شد اونها درک کنند که ساخت بمب اتمی اکنون فقط مساله چندین ساله است، به واقع یک بمب فقط در سه سال خواهد شد.

به همین شیوه، تگمارک از خطرات مدل‌های AI که می‌توانند آزمون تورینگ را پشت سر بگذارند و غیر قابل تمایز از انسان‌ها در ارتباط باشند، هشدار داد. پیشرفت‌های چنینی همانند خطرانه‌ای هستند زیرا تضمینی برای کنترل دائمی بر این الگوریتم‌ها وجود ندارد.
با ابراز نگرانی‌های خود که تازه و اخیرا توسط بنیان‌گذاران صنعتی مثل جیفری هینتون و یوشوا بنجیو، به همراه مدیران ارشد شرکت‌های فناوری بزرگ عمومی شده‌است، تگمارک ناله کرد که پیشنهاد یک ممنوعیت شش ماهه روی تحقیقات AI بی‌توجه مانده بود. جلسات سطح بالا همچنان بیشتر بر تعیین اصول تنظیمات تمرکز دارند تا به مشکلات فوری پرداخته شود. فیزیکدان به خطر جدا کردن مسائل مهم‌تر مربوط به AI، از روش‌های انحراف صنعت دخانیات، اش

با این حال تگمارک امیدآور است، به آنگاه می‌اشاره کرده است که جریان دیدگاه‌های عمومی ممکن است دارد تغییر کند، زیرا حتی افراد هر روزه نگرانی‌های خود را درباره جایگزین شدن انسان‌ها توسط AI بیان می‌کنند. او بر اهمیت حرکت از گفتگو به اقدام ملموس تاکید کرد، حمایت از استانداردهای ایمنی تحت نظر دولت به‌عنوان تنها راه پیشروی برای یک آینده امن AI.

مکس تگمارک، یک فیزیکدان نگران از ایمنی AI، نه تنها بر موارد خطرناک AI پیشرفته تاکید دارد بلکه نیاز به تدابیر پیشگیرانه را هم ابراز می‌کند. بحث پیرامون ایمنی AI چند وجهی بوده که باعث ارائه سوالات و چالش‌ها برای توسعه‌دهندگان، سیاست‌گذاران و عموم مردم شده‌است.

مهم‌ترین سوالات مربوط به ایمنی AI ممکن است شامل:
– چگونه می‌توانیم اطمینان حاصل کنیم که سیستم‌های AI با ارزش‌ها و اخلاق انسانی همخوانی دارند؟
– چه چارچوب‌های تنظیمی برای حکومت کردن توسعه و اجرای AI لازم است؟
– چطور می‌توانیم جلوی سوءاستفاده از AI یا هدایت ما به پیامد‌های ناخواسته را بگیریم؟
– چه اقداماتی می‌توان انجام داد تا خطرات مرتبط با پیشرفت AI به اندازه‌ای بالاتر از هوش انسان مطرح شود؟

چالش‌ها یا اختلافات کلیدی مرتبط با ایمنی AI معمولاً حول تب رویایی می‌گردند:
– مشکل در پیش‌بینی رفتار سیستم‌های پیچیده AI، به ویژه هنگامی که بیشتر خودگردان می‌شوند.
– خطرات یک مسابقه جنگ ارتشی AI بین کشورها یا شرکت‌ها، جایی که تحریک برای پیشرفت بیش از اندازه مسائل امنیتی را بی‌خیال می‌کند.
– نگرانی‌های اخلاقی مانند بیکاری و توانایی AI در اتخاذ تصمیماتی که ممکن است با برخورد با رفاه انسانی ناسازگار باشد.
– شفافیت الگوریتم‌های AI و اینکه آیا کاربران پایه‌های بر پایۀ چه اساسی تصمیم‌گیری شده است، مورد درک آنهاست.

مزایا و معایب تمرکز بر ایمنی AI شامل:
مزایا:
– جلوگیری از خطرات وجودی به وجود آمده به دلیل پیشرفت ناخواسته AI بی‌کنترل.
– تطابق فناوری AI با ارزش‌ها و اخلاق انسانی تا اطمینان حاصل شود که به جامعه سود می‌بخشد.
– پیش‌بینی و مدیریت تأثیرات اجتماعی، از جمله بهبود کیفیت زندگی و اختلال در بازار کار.

معایب:
– تنظیمات محدودیتی ممکن است منجر به کاهش نوآوری و توسعه فناوری‌های AI مفید شود.
– ممکن است موجب گمراهی در استانداردها و تنظیمات بین‌المللی شود که به خسارت‌های رقابتی منتهی می‌شود.
– تکیه بر خطرات فرضی ممکن است توجه را از مرتط الگوریتم‌ها و اشتباهات فعلی AI منحرف کند.

در نظر گرفتن منابع اطلاعاتی مرتبط، مهم است که به سازمان‌های قابل اعتمادی که تحقیقات در زمینه AI و اخلاق انجام می‌دهند مراجعه کنید. موسسات بزرگی چون موسسه آینده زندگی، که توسط مکس تگمارک تأسیس شده است، اغلب این موضوعات را به طور گسترده بررسی می‌کنند. برای دانستن بیشتر درباره AI و تأثیرات جامعه‌ای آن، ممکن است به موارد زیر مراجعه کنید:
موسسه آینده زندگی
AI Global
پیوند درباره AI

با نگرش ایمنی AI از دیدگاه اطلاعاتی و ترویج همکاری جهانی، احتمالاً جامعه از شرایط AI بهره‌مند می‌شود درحالی که دربرابر خطرات آن محافظت خواهد شد.

Privacy policy
Contact