مقدمه
حوزهی هوش مصنوعی (AI) همچنین تحول و نگرشهایی از جانب متخصصین و عموم مردم را به همراه دارد. در حالی که هوش مصنوعی در زمینههای گوناگون قدرت زیادی دارد، یک گزارش جدید سفارششده توسط وزارت امور خارجه آمریکا به خطرهای نابودگری که برای امنیت ملی پیش میآید، تاکید میکند. این گزارش، بر اساس تحقیقات گسترده و مصاحبه با رهبران صنعت و متخصصین، هشدارهای نابرطفی را درباره خطرات احتمالی مرتبط با هوش مصنوعی در پیش رو مطرح مینماید. در این مقاله به تهدیدات نزدیک الوقوف، نیاز فوری به مداخله، و خواستههایی برای حفاظتهای تنظیمی پرداخته خواهد شد.
خطرات خطرناک
به گزارش منتشر شده توسط Gladstone AI، سامانههای پیشرفته هوش مصنوعی پتانسیل تبدیل شدن به یک تهدید بهرهاندازی فراتر از سطح انقراض برای بشر را دارند. خطر نگرانکنندهتر در ممکن بودن اسلحهسازی هوش مصنوعی است که منجر به آسیبهای غیرقابل برگشت میشود. علاوه بر این، گزارش به نگرانیهای داخل آزمایشگاههای هوش مصنوعی درباره از دست دادن کنترل بر سامانههای خودشان که میتواند عواقب ویرانگری برای امنیت جهانی داشته باشد، اشاره میکند.
ظهور هوش مصنوعی و هوش عمومی مصنوعی (AGI) پتانسیل از معلولیت امنیتی را دارد، شبیه به معرفی اسلحههای هستهای. در واقع، گزارش از یک “دوراندیشی برای هوش مصنوعی” هشدار میدهد و خطرات افزایشی برای تعارضات، به همراه احتمال بروز حوادث ویرانکننده به مقیاسی مشابه با اسلحههای ماسمخره (WMD) را آورده است.
تماس فوری به عمل
با توجه به جدیت وضعیت، گزارش بر تأکید میکند که نیاز واضح و فوری به مداخله از سوی دولت آمریکا وجود دارد. برای مواجهه بهینه با این تهدید سهم معرفی میکند:
1. ایجاد یک نهاد هوش مصنوعی جدید: گزارش بر ایجاد یک نهاد متمرکز جهت برخورد با چالشهای مطرحشده توسط هوش مصنوعی تأکید میکند. این نهاد بر رصد، تنظیم و اطمینان از ایمنی و امنیت سامانههای هوش مصنوعی تمرکز خواهد داشت.
2. حفاظتهای تنظیمی اضطراری: پیشنهاد میشود که برای کاهش خطرات مرتبط با هوش مصنوعی حفاظتهای تنظیمی اضطراری اجرا گردند. این تدابیر به انحراف گیری توسعه هوش مصنوعی به قیمت از دست دادن ایمنی و امنیت میپردازد.
3. محدودیتها بر روی توانایی کامپیوتر: گزارش همچنین پیشنهاد میدهد که محدودیتها بر روی مقدار توان محاسباتی بهکارگیری شده برای آموزش مدلهای هوش مصنوعی تعیین شود. این کنترل تضمین میکند که توسعه مسولانه و نظارتشده سامانههای هوش مصنوعی صورت گیرد.
نگرانیهای امنیتی و دیدگاههای صنعتی
یافتههای نگرانکننده گزارش نتیجه دسترسی بیسابقه Gladstone AI به مقامات هر دو بخش عمومی و خصوصی بودند. تیمهای فنی و مدیریتی از غولهای صنعت هوش مصنوعی مانند OpenAI، Google DeepMind، Facebook Meta، و Anthropic در طول فرآیند تحقیق مورد مشاوره قرار گرفتند. گزارش نشان میدهد که اقدامات ایمنی و امنیت در سامانههای پیشرفته هوش مصنوعی به طور ناسازگار با خطرات امنیتی ملی که ارائه کردهاند، دستکم برخورد نمیکنند.
این مشکل توسط فشارهای رقابتی تشدید میشود، چرا که شرکتها تأکید دارند که توسعه سریع هوش مصنوعی را بیش از در نظر گرفتن امور ایمنی و امنیت ö vorhert. گزارش از این این رویکرد هشدار میدهد که این رویکرد میتواند به دزدیده شدن و بهرهمندسازی از سامانههای پیشرفته هوش مصنوعی در مقابل ایالات متحده منتهی شود.
پیشبینی
گزارشدهی بر سر فهرست روبهرویی دائمی اخطارها و نگرانیها ارائه شده توسط افراد برجسته در صنعت هوش مصنوعی افزود. متخصصانی همچون الان ماسک، صدراعلاڮی بیزگشتورها، و مدیران سابق OpenAI همگی به خطرات وجودی که هوش مصنوعی پیش میآورد، اشاره کردهاند. علاوه بر این، کارمندان آزمایشگاههای هوش مصنوعی نگرانیهای مشابهی را خصوصی اعتراف کردهاند، از جمله نگرانیهایی که مدلهای هوش مصنوعی نسل بعدی ممکن است برای تلاش در گرفتن اثرگذاری بر نتایج انتخابات یا تحت مایه قرارداد خود رای دموکراسی قرار گیرند.
یکی از بزرگترین عدم قطعیتها درباره هوش مصنوعی سرعتی است که تکامل میکند، به ویژه AGI. AGI که توانایی یادگیری شبیه یا فراتر از انسانی دارد، به عنوان اصلیترین راننده خطرات ویرانآوری به دلیل از دست دادن کنترل شناخته میشود. شرکتهایی همچون OpenAI، Google DeepMind، Anthropic، و Nvidia علنا اعلامکردهاند که AGI ممکن است تا سال ۲۰۲۸ به دست آید، اگرچه بعضی از متخصصان ادعا میکنند آن ممکن است به آینده دورتری برسد.
پرسشهای متداول
1. طرحهایی که برای هوش مصنوعی انجام شده است، چه خطراتی به دنبال دارد؟
خطرات مرتبط با هوش مصنوعی دوگانه هستند. در ابتدا، سامانههای پیشرفته هوش مصنوعی میتوانند اسلحهای بشوند که منجر به عواقب ویرانگر میشود. ثانیاً، یک نگرانی در آزمایشگاههای هوش مصنوعی وجود دارد که این سامانهها از کنترل خارج شده و خطراتی برای امنیت جهانی ایجاد میکنند.
2. چه تدابیری برای مقابله با خطرات ارائه شده است؟
گزارش به تأسیس یک نهاد هوش مصنوعی جدید برای نظارت و تنظیم سامانههای هوش مصنوعی، اجرای حفاظتهای تنظیمی اضطراری، و تعیین محدودیتها بر روی توانایی کامپیوتری بهکار بردن شده برای آموزش مدلهای هوش مصنوعی برای تضمین توسعه مسولانه پیشنهاد میشود.
3. نگرانیهای رهبران صنعتی و متخصصین چیست؟
افراد برجسته در صنعت هوش مصنوعی، مانند الان ماسک و لینا خان، نگرانیها درباره خطرات وجودی که هوش مصنوعی دارد را بیان کردهاند. گزارش همچنین نشان میدهد که کارمندان در شرکتهای هوش مصنوعی نگرانیهای مشابهی درباره سوء استفاده از مدلهاي هوش مصنوعی به اشتراک گذاشتهاند.
4. زمانی که هوش مصنوعی تهدیدی ویرانآور میشود چه زمانی است؟
هر چند برآوردها متفاوت هستند، اما گزارش نشان میدهد تا سال ۲۰۲۴ اینسانشناختی میتواند رخ دهد. با این حال، این برآوردها غیررسمی هستند و به تعصب وابستهاند.
5. AGI چیست؟
هوش عمومی مصنوعی (AGI) به یک شکل فرضی از هوش مصنوعی اشاره دارد که توانایی یادگیری شبیه به انسان یا از سطح بالاتری دارد. AGI به عنوان اصلیترین راننده خطرات ویرانآوری به دلیل از دست دادن کنترل بر روند عملکرد آن شناخته میشود.
The source of the article is from the blog aovotice.cz