برنامه‌های هوش مصنوعی: یک تهدید احتمالی برای امنیت ملی

مقدمه

حوزه‌ی هوش مصنوعی (AI) همچنین تحول و نگرش‌هایی از جانب متخصصین و عموم مردم را به همراه دارد. در حالی که هوش مصنوعی در زمینه‌های گوناگون قدرت زیادی دارد، یک گزارش جدید سفارش‌شده توسط وزارت امور خارجه آمریکا به خطرهای نابود‌گری که برای امنیت ملی پیش می‌آید، تاکید می‌کند. این گزارش، بر اساس تحقیقات گسترده و مصاحبه با رهبران صنعت و متخصصین، هشدارهای نابرطفی را درباره خطرات احتمالی مرتبط با هوش مصنوعی در پیش رو مطرح می‌نماید. در این مقاله به تهدیدات نزدیک الوقوف، نیاز فوری به مداخله، و خواسته‌هایی برای حفاظت‌های تنظیمی پرداخته خواهد شد.

خطرات خطرناک

به گزارش منتشر شده توسط Gladstone AI، سامانه‌های پیشرفته هوش مصنوعی پتانسیل تبدیل شدن به یک تهدید بهره‌اندازی فراتر از سطح انقراض برای بشر را دارند. خطر نگران‌کننده‌تر در ممکن بودن اسلحه‌سازی هوش مصنوعی است که منجر به آسیب‌های غیرقابل برگشت می‌شود. علاوه بر این، گزارش به نگرانی‌های داخل آزمایشگاه‌های هوش مصنوعی درباره از دست دادن کنترل بر سامانه‌های خودشان که می‌تواند عواقب ویرانگری برای امنیت جهانی داشته باشد، اشاره می‌کند.

ظهور هوش مصنوعی و هوش عمومی مصنوعی (AGI) پتانسیل از معلولیت امنیتی را دارد، شبیه به معرفی اسلحه‌های هسته‌ای. در واقع، گزارش از یک “دوراندیشی برای هوش مصنوعی” هشدار می‌دهد و خطرات افزایشی برای تعارضات، به همراه احتمال بروز حوادث ویران‌کننده به مقیاسی مشابه با اسلحه‌های ماس‌مخره (WMD) را آورده است.

تماس فوری به عمل

با توجه به جدیت وضعیت، گزارش بر تأکید می‌کند که نیاز واضح و فوری به مداخله از سوی دولت آمریکا وجود دارد. برای مواجهه بهینه با این تهدید سهم معرفی می‌کند:

1. ایجاد یک نهاد هوش مصنوعی جدید: گزارش بر ایجاد یک نهاد متمرکز جهت برخورد با چالش‌های مطرح‌شده توسط هوش مصنوعی تأکید می‌کند. این نهاد بر رصد، تنظیم و اطمینان از ایمنی و امنیت سامانه‌های هوش مصنوعی تمرکز خواهد داشت.

2. حفاظت‌های تنظیمی اضطراری: پیشنهاد می‌شود که برای کاهش خطرات مرتبط با هوش مصنوعی حفاظت‌های تنظیمی اضطراری اجرا گردند. این تدابیر به انحراف گیری توسعه هوش مصنوعی به قیمت از دست دادن ایمنی و امنیت می‌پردازد.

3. محدودیت‌ها بر روی توانایی کامپیوتر: گزارش همچنین پیشنهاد می‌دهد که محدودیت‌ها بر روی مقدار توان محاسباتی به‌کارگیری شده برای آموزش مدل‌های هوش مصنوعی تعیین شود. این کنترل تضمین می‌کند که توسعه مسولانه و نظارت‌شده سامانه‌های هوش مصنوعی صورت گیرد.

نگرانی‌های امنیتی و دیدگاه‌های صنعتی

یافته‌های نگران‌کننده گزارش نتیجه دسترسی بی‌سابقه Gladstone AI به مقامات هر دو بخش عمومی و خصوصی بودند. تیم‌های فنی و مدیریتی از غول‌های صنعت هوش مصنوعی مانند OpenAI، Google DeepMind، Facebook Meta، و Anthropic در طول فرآیند تحقیق مورد مشاوره قرار گرفتند. گزارش نشان می‌دهد که اقدامات ایمنی و امنیت در سامانه‌های پیشرفته هوش مصنوعی به طور ناسازگار با خطرات امنیتی ملی که ارائه کرده‌اند، دستکم برخورد نمی‌کنند.

این مشکل توسط فشارهای رقابتی تشدید می‌شود، چرا که شرکت‌ها تأکید دارند که توسعه سریع هوش مصنوعی را بیش از در نظر گرفتن امور ایمنی و امنیت ö vorhert. گزارش از این این رویکرد هشدار می‌دهد که این رویکرد می‌تواند به دزدیده شدن و بهره‌مندسازی از سامانه‌های پیشرفته هوش مصنوعی در مقابل ایالات متحده منتهی شود.

پیش‌بینی

گزارش‌دهی بر سر فهرست روبه‌رویی دائمی اخطارها و نگرانی‌ها ارائه شده توسط افراد برجسته در صنعت هوش مصنوعی افزود. متخصصانی همچون الان ماسک، صدراعلاڮی بیزگشتورها، و مدیران سابق OpenAI همگی به خطرات وجودی که هوش مصنوعی پیش می‌آورد، اشاره کرده‌اند. علاوه بر این، کارمندان آزمایشگاه‌های هوش مصنوعی نگرانی‌های مشابهی را خصوصی اعتراف کرده‌اند، از جمله نگرانی‌هایی که مدل‌های هوش مصنوعی نسل بعدی ممکن است برای تلاش در گرفتن اثرگذاری بر نتایج انتخابات یا تحت مایه قرارداد خود رای دموکراسی قرار گیرند.

یکی از بزرگترین عدم قطعیت‌ها درباره هوش مصنوعی سرعتی است که تکامل می‌کند، به ویژه AGI. AGI که توانایی یادگیری شبیه یا فراتر از انسانی دارد، به عنوان اصلی‌ترین راننده خطرات ویران‌آوری به دلیل از دست دادن کنترل شناخته می‌شود. شرکت‌هایی همچون OpenAI، Google DeepMind، Anthropic، و Nvidia علنا اعلام‌کرده‌اند که AGI ممکن است تا سال ۲۰۲۸ به دست آید، اگرچه بعضی از متخصصان ادعا می‌کنند آن ممکن است به آینده دورتری برسد.

پرسش‌های متداول

1. طرح‌هایی که برای هوش مصنوعی انجام شده است، چه خطراتی به دنبال دارد؟
خطرات مرتبط با هوش مصنوعی دوگانه هستند. در ابتدا، سامانه‌های پیشرفته هوش مصنوعی می‌توانند اسلحه‌ای بشوند که منجر به عواقب ویرانگر می‌شود. ثانیاً، یک نگرانی در آزمایشگاه‌های هوش مصنوعی وجود دارد که این سامانه‌ها از کنترل خارج شده و خطراتی برای امنیت جهانی ایجاد می‌کنند.

2. چه تدابیری برای مقابله با خطرات ارائه شده است؟
گزارش به تأسیس یک نهاد هوش مصنوعی جدید برای نظارت و تنظیم سامانه‌های هوش مصنوعی، اجرای حفاظت‌های تنظیمی اضطراری، و تعیین محدودیت‌ها بر روی توانایی کامپیوتری به‌کار بردن شده برای آموزش مدل‌های هوش مصنوعی برای تضمین توسعه مسولانه پیشنهاد می‌شود.

3. نگرانی‌های رهبران صنعتی و متخصصین چیست؟
افراد برجسته در صنعت هوش مصنوعی، مانند الان ماسک و لینا خان، نگرانی‌ها درباره خطرات وجودی که هوش مصنوعی دارد را بیان کرده‌اند. گزارش همچنین نشان می‌دهد که کارمندان در شرکت‌های هوش مصنوعی نگرانی‌های مشابهی درباره سوء استفاده از مدل‌هاي هوش مصنوعی به اشتراک گذاشته‌اند.

4. زمانی که هوش مصنوعی تهدیدی ویران‌آور می‌شود چه زمانی است؟
هر چند برآوردها متفاوت هستند، اما گزارش نشان می‌دهد تا سال ۲۰۲۴ اینسانشناختی می‌تواند رخ دهد. با این حال، این برآوردها غیررسمی هستند و به تعصب وابسته‌اند.

5. AGI چیست؟
هوش عمومی مصنوعی (AGI) به یک شکل فرضی از هوش مصنوعی اشاره دارد که توانایی یادگیری شبیه به انسان یا از سطح بالاتری دارد. AGI به عنوان اصلی‌ترین راننده خطرات ویران‌آوری به دلیل از دست دادن کنترل بر روند عمل‌کرد آن شناخته می‌شود.

The source of the article is from the blog aovotice.cz

Privacy policy
Contact