توسعه سریع هوش مصنوعی (AI) موجب ایجاد نگرانیهای فوری در زمینه امنیت ملی میشود که نمیتوان آن را نادیده گرفت. یک گزارش توسط دولت تأسیس شده تاکید دارد که دولت ایالات متحده نیاز دارد تا برای کاهش ریسکهای قابل توجهی که توسعه AI آنها ناشی میشود، اقدامات فوری و قاطعی انجام دهد که ممکن است به یک “تهدید سطح انقراض برای گونههای انسانی” تبدیل شود.
این گزارش به خطراتی که با ظهور هوش مصنوعی پیشرفته و هوش مصنوعی عمومی (AGI) همراه است، تاکید کرده و تأثیر امنیتی جهانی پتانسیل احتمالی آنها را با سلاحهای هستهای مقایسه میکند. در حالی که AGI هنوز فرضی است، اما گزارش اشاره میکند که آمدن آن ممکن است نزدیک باشد، با توجه به سرعتی که آزمایشگاههای AI به سوی توسعه این فناوریها کار میکنند.
کارشناسان صنعت بینی به مشکلات داخلی مربوط به روشهای ایمنی در صنعت AI، به ویژه در شرکتهای برجسته مانند OpenAI، Google DeepMind، Anthropic و Meta، تبصره ارائه دادهاند. آنها به “ریسک نظامیسازی” و “ریسک از دست دادن کنترل” هشدار دادهاند و تأکید میکنند که تکیه بر تهدیدات دوگانه ایجاد شده توسط تکامل سریع قابلیتهای AI، قابل توجه است. گزارش هشدار میدهد که پاداشهای اقتصادی که یک مسابقه خطرناک بین توسعهدهندگان AI را راه اندازی میکنند، میتواند پیشرفت را از بین مسائل ایمنی به اولویت بندی کند.
زمانی که فناوری AI به پیش میرود، تقاضا برای تدابیر تنظیمی قوی رو به افزایش است. گزارش اقدامات بیسابقهای را پیشنهاد میدهد که شامل تبدیل آموزش مدلهای AI بیشتر از سطح مشخصی از قدرت محاسباتی به تبدیل آنها به غیرقابل قانونی و تأسیس یک نهاد فدرال جدید متعهد به نظارت بر زمینه AI میشود.
برای پردازش ریسکهای امنیتی ملی ناشی از نظامیسازی هوش مصنوعی و از دست دادن کنترل، گزارش برنامه عمل “طرح اقدامهای گلدستون” را شرح میدهد. این طرح برای تدابیر موقت، تقویت توان و ظرفیت دولت برای آمادگی AI، افزایش سرمایهگذاری در تحقیقات ایمنی AI، ایجاد تدابیر اندیشهآلود از طریق نهاد تنظیمی ساماندهی سیستمهای AI مرزی (FAISA) و به رسمیت شناختن تدابیر ایمنی AI در قانون بینالمللی تدابیر میطلبد.
اما، اجرای این پیشنهادات ممکن است با مقاومتهای مهم سیاسی و صنعتی روبهرو شود. سیاستهای فعلی دولت ایالات متحده و طبیعت همکاری و جهانی زمینه توسعه AI ممکن است موانع چالایی را به وجود آورند.
با این حال، گزارش نگرانی روزافزون عمومی را در مورد رویدادهای فاجعهباری که AI ممکن است ایجاد کند، بازتاب میدهد. این تاکید میشود که نیاز به تنظیمات دولتی افزایش یابد تا اطمینان حاصل شود که ایمنی و امنیت توسعه AI حفظ میشود. با پیشرفت سریع ابزارهای هوش مصنوعی و وابستگی آنها به قدرت محاسبات قابل توجه، پرداختن به این مسائل جامعهای گسترده الزامی شده است. فوریت اقدام گرفتن نمیتواند بیش از حد بیان شود اگر بخواهیم با پیچیدگیها و ریسکهای ممکن ارتباطی با توسعه AI دست و پنجه نرم کنیم.
سوالات متداول:
- چه انگیزههای امنیت ملی توسعه سریع هوش مصنوعی (AI) را به وجود میآورد؟
توسعه سریع AI نگرانی را در مورد تبدیل شدن آن به یک “تهدید سطح انقراض برای گونههای انسانی” ایجاد میکند، مشابه سلاحهای هستهای.
- هوش مصنوعی عمومی (AGI) چیست؟
هوش مصنوعی عمومی به یک شکل فرضی از AI اشاره دارد که میتواند هر کاره فرهنگیای را انجام دهد که یک انسان میتواند انجام دهد.
- چه ریسکهایی با ظهور AI پیشرفته همراه است؟
گزارش دو ریسک اصلی را برجسته میکند: “ریسک نظامیسازی”، که به کاربرد AI به عنوان یک سلاح اشاره دارد، و “ریسک از دست دادن کنترل” که به سیستمهای AI که قابل کنترل نیستند یا به شکلهای غیرمنتظره عمل میکنند، اشاره دارد.
- چه نگرانیهایی را کارشناسان صنعت درباره صنعت AI بیان کردهاند؟
کارشناسان صنعت نگرانیهایی راجع به ریسک نظامیسازی و ریسک از دست دادن کنترل در صنعت AI بیان کردهاند. آنها هشدار دادهاند که در یک مسابقه خطرناک بین توسعهدهندگان AI و تأکید بر پیشرفت از محاسبات ایمنی اولویت بندی کنند.
- چه تدابیر تنظیمی در گزارش پیشنهاد شده است؟
گزارش پیشنهاد میدهد که آموزش مدلهای AI بیشتر از سطوح خاصی از قدرت محاسباتی غیرقانونی باشد و یک نهاد فدرال جدید برای نظارت بر زمینه AI تأسیس گردد.
- طرح اقدامهای گلدستون چیست؟
طرح اقدامهای گلدستون طرحی است که در گزارش برای پردازش ریسکهای امنیتی ملی مربوط به نظامیسازی AI و از دست دادن کنترل شرح داده شده است. این طرح تدابیر موقت، افزایش سرمایهگذاری در تحقیقات ایمنی AI و تأسیس یک نهاد نظارتی بر AI را میطلبد.
- چه موانعی میتواند در اجرای اقدامات توصیه شده پدید آید؟
مقاومتهای سیاسی و صنعتی، همچنین سیاستهای فعلی دولت ایالات متحده و طبیعت همکاری اجتماعی در جامعه توسعه AI ممکن است موانعی برای اجرای توصیهها باشند.
- چه چیزی گزارش درباره نگرانی عمومی بیان میکند؟
گزارش تأکید دارد که نگرانی روزافزون عمومی را درباره رویدادهای فاجعهباری که AI ممکن است ایجاد کند، بازتاب میدهد. آن تأکید دارد که نیاز به تنظیمات دولتی افزایش یابد تا ایمنی و امنیت در توسعه AI تضمین شود.
تعاریف:
- هوش مصنوعی (AI): زمینهای از علوم کامپیوتر که بر تولید و توسعه دستگاههای هوشمند تمرکز دارد که قادر به انجام وظایفی هستند که بهطور معمول نیاز به هوش انسانی دارند.
- هوش مصنوعی عمومی (AGI): یک شکل فرضی از AI است که میتواند هر کار فکری را انجام دهد که یک انسان قادر به انجام آن باشد.
- نظامیسازی: عمل تبدیل کردن چیزی به یک سلاح یا استفاده از آن به عنوان یک سلاح. در زمینه AI، به استفاده از فناوری AI برای اهداف آسیبرسان اشاره دارد.
- از دست دادن کنترل: اشاره به ظرفیتی است که سیستمهای AI به شکلهایی عمل کنند که نه به قصد بوده است و یا رفتاری غیرمنتظره داشته باشند که ممکن است منجر به پیامدهای منفی غیرمنتظره شود.
پیوندهای پیشنهادی:
- National Academies – Artificial Intelligence
- The White House – Artificial Intelligence
- National Institute of Standards and Technology – Artificial Intelligence
The source of the article is from the blog elektrischnederland.nl