تقویت تدابیر امنیتی هوش مصنوعی
دولت بایدن تدابیر پیشگیرانهای را برای محافظت از مدلهای پیشرفتهترین هوش مصنوعی (AI) آمریکا در برابر دشمنان پتانسیلی مانند چین و روسیه اتخاذ میکند. این برنامهها شامل ایجاد حواستی به منظور جلوگیری از سوء استفاده از ابزارهای هوش مصنوعی است که میلیاردها متن و تصویر را تجزیه و تحلیل میکنند که ممکن است حملات سایبری یا حتی توسعه سلاحهای زیستشیمیایی قدرتمندی را ممکن سازد.
برخی واقعیتهای خلق شده از تواناییهای هوش مصنوعی
ویدیوهای تغییر یافته در هوش مصنوعی که واقعیت را با خلق غیرتعهدیها ترکیب میکنند، به طور فزاینده در شبکههای اجتماعی نفوذ میکنند. این نارواها، خطوط بین واقعیت و خیال را مبهم میکنند، مخصوصاً در منظری سیاسی پلاریزه شده آمریکا. با وجود چند سال وجود، این رسانههای دستکاری شده با معرفی ابزارهای هوش مصنوعی جدید، مانند نرمافزار Midjourney، مورد توجه قرار گرفتهاند.
گزارشهای ماه مارچ نشان میدهد که ابزارهای ایجاد تصویر با پشتیبانی از هوش مصنوعی از شرکتهایی مانند OpenAI و مايکروسافت ممکن است برای ساخت عکسهای تقلبی که اطلاعات گمراهکننده از انتخابات یا رأیگیری منتشر میکنند، بهرهبرداری شوند، اگرچه این شرکتها سیاستهایی علیه ساخت محتوای گمراهکننده دارند.
مقابله با کمپینهای اطلاعات غلط
کمپینهای اطلاعات غلط از تظاهر واقعی مقالات بهعنوان یک راه مشترک برای گسترش دروغ از هوش مصنوعی بهره بردهاند. غولهای رسانه اجتماعی مانند فیسبوک، توییتر و یوتیوب تلاش میکنند تا از چنین تغییرات تصویری جلوگیری کنند، اما کارآیی تلاشهای آنها متفاوت است.
یک نمونه از انتشار اطلاعات غلط که توسط یک رسانه خبری چینی تحت کنترل دولتی ترویج شد، ادعای کاذبی بود که اتهام میزد که آمریکا در کازاخستان یک آزمایشگاه سلاحهای زیستشیمیایی دارد، همانطور که اداره امنیت ملی (DHS) در یک ارزیابی تهدیدات ۲۰۲۴ اظهار کرد.
مشاور امنیت ملی جیک سالیوان در یک رویداد هوش مصنوعی در واشنگتن اقرار کرد که دفاع از دموکراسی در مقابل این کمپینهای اطلاعاتی غیرقابل حصر بزرگ چالشبرانگیز است زیرا از تواناییهای هوش مصنوعی با قصد آسیبرسانی به بازیگران دولتی و غیردولتی استفاده کردهاند.
خطرات سلاحهای زیستشیمیایی و سایبری
ادارات استخباراتی آمریکا و پژوهشگران به طور فزاینده نگران خطراتی هستند که دسترسی به قابلیتهای پیشرفته هوش مصنوعی توسط عوامل بدنام خارجی به راه میاندازد. بهطور قابل توجه، مطالعات از Griffin Scientific و Rand Corporation نشان داده است که مدلهای زبان بزرگ (LLMs) ممکن است اطلاعاتی را که در ساخت سلاحهای زیستشیمیایی به راه میاندازد فراهم کند.
در یک مثال، مشخص شد که LLMs قادر به انتقال دانش سطح پسادکتورا بر روی عوامل عفونی ویروسی با پتانسیل واگیردار هستند. تحقیقات بیشتر از سوی Rand نشان داد که LLMs ممکن است در برنامهریزی و اجرای حمله زیستی کمک کنند، شامل پیشنهاد روشهای توزیع قطرهای برای سم بوتولینوم.
در زمینه سایبری، ارزیابی تهدید 2024 DHS از استفاده از هوش مصنوعی برای توسعه ابزارهایی که حملات سایبری بزرگتر، سریعتر و مختف پیشرفته را بر روی زیرساختهای بحرانی از جمله خطوط لوله نفتی و راهآهنها تسهیل میکند، هشدار داد. به دست آمد که چین و رقبای دیگر هوش مصنوعی توانایی تضعیف امنیت سایبری آمریکا از جمله حملات بدافزاری هوش مصنوعی دارند. مایکروسافت به ثبت نمود که گروههای هکر مربوط به دولتهای چین و کره شمالی، اطلاعات استخباراتی نظامی روسیه و سپاه پاسداران ایران از طریق استفاده از مدلهای زبان بزرگ همچنان در حال بهبود تلاشهای هک خود هستند.
براساس زمینه مقاله، برخی اطلاعات مرتبط اضافی که ممکن است در نظر گرفته شوند عبارتند از:
رقابت بینالمللی در توسعه هوش مصنوعی: رقابت برای آراستنی در هوش مصنوعی محدود به ایالات متحده و دشمنانش نیست. کشورهای سراسر جهان بخش قابل توجهی از منابع را در هوش مصنوعی سرمایهگذاری کردهاند. این مسئله پیچیدهای راههای بینالمللی سه کارگفته که همزمان همکاری و رقابت صورت میگیرد، بر تحولات امنیتی جهانی و پویاییهای اقتصادی تأثیر گذار است.
مسائل تنظیمی و اخلاقی: هنگامی که تکنولوژیهای هوش مصنوعی پیشرفت میکنند، بسیجهای متعدد، از جمله دولتها و سازمانهای بینالمللی، با نقدین اخلاقی و نیاز به تنظیم مواجه هستند تا اطمینان حاصل شود که هوش مصنوعی به طور مسئولانه توسعه و استفاده میشود. بحثها درباره نظارت، حریمخصوصی و استفاده اخلاقی از هوش مصنوعی در کاربردهای نظامی از جمله این مسائل است.
هوش مصنوعی و امنیت اقتصادی: فراتر از کاربردهای نظامی و امنیت سایبری، تکنولوژی هوش مصنوعی برای امنیت اقتصادی نیز تأثیر چشمگیری دارد. تواناییهای اتوماسیون و بهینهسازی هوش مصنوعی میتواند به بهبود بهرهوری و رشد اقتصادی کمک کند، اما ممکن است منجر به جابهجایی شغلی و افزایش نابرابری شود.
شعار ‘داور منساب’: بحث اطلاق شعار ‘داور منساب’، بهخصوص بین ایالات متحده و چین، نگرانی و اختلاف ایجاد کردهاست. نگرش داور منساب ممکن است از دلایلی که میتواند به حدوث چالش امنیتی منجر شود، که در آن هر طرف به تقویت توانمندیهای بیشتر به پاسخ به تهدید پیشرفت دیگر منجر شود، که بتواند منجر به افزایش تنشها شود.
پایینتر سؤالات کلیدی مرتبط با موضوع هستند، بههمراه پاسخهای آنها:
چرا حفاظت از تکنولوژی هوش مصنوعی آمریکا در برابر فرماندهان خارجی اهمیت دارد؟
این امر برای امنیت ملی، حفظ یک اورژانس رقابتی در اقتصاد جهانی و حفظ صحت اطلاعات و فرایندهای دموکراتیک ضروری است. هوش مصنوعی پیشرفته میتواند برای انجام حملات سایبری، تأثیر بر اندیشههای عمومی و حتی تقویت تواناییهای سامانههای سلاح مورد سوء استفاده گردد.
چالشهای اصلی در جلوگیری از سوء استفاده از هوش مصنوعی توسط عوامل خارجی چیست؟
اقدامات فناورانه برای حفاظت از هوش مصنوعی پیچیده هستند و ممکن است منابع زیادی را مصرف کند. همچنین طبیعت جهانی و پیوندی صنعت فناوری باعث میشود که کنترل گسترش اطلاعات و فناوری دشوار باشد. مسائل ارجاع، توسعه سریع فناوری، و تفاوتهای در نرمافزارهای بینالمللی و تنظیمات مواجههکننده با چالشها هستند.
چه اختلافاتی حول توسعه و دفاع از هوش مصنوعی وجود دارد؟
نگرانیها درباره یک تسلیح ورزی هوش مصنوعی محتمل، دستورات اخلاقی مربوط به سامانههای سلاح خودکار، تعادل بین نوآوری و امنیت، و احتمال برخورد تصاعدی در مناقشات سایبری اصلی است در حوزه توسعه و دفاع از هوش مصنوعی.
مزایا و معایب تقویت تکنولوژی هوش مصنوعی شامل:
مزایا:
– تقویت امنیت ملی در برابر تهدیدات سایبری.
– حفاظت از زیرساختهای بحرانی و پایداری اقتصادی.