ایالات متحده برای تقویت فناوری هوش مصنوعی در برابر دشمنان خارجی

تقویت تدابیر امنیتی هوش مصنوعی
دولت بایدن تدابیر پیشگیرانه‌ای را برای محافظت از مدل‌های پیشرفته‌‌ترین هوش مصنوعی (AI) آمریکا در برابر دشمنان پتانسیلی مانند چین و روسیه اتخاذ می‌کند. این برنامه‌ها شامل ایجاد حواستی به منظور جلوگیری از سوء استفاده از ابزارهای هوش مصنوعی است که میلیاردها متن و تصویر را تجزیه و تحلیل می‌کنند که ممکن است حملات سایبری یا حتی توسعه سلاح‌های زیست‌شیمیایی قدرتمندی را ممکن سازد.

برخی واقعیت‌های خلق شده از توانایی‌های هوش مصنوعی
ویدیوهای تغییر یافته در هوش مصنوعی که واقعیت را با خلق غیرتعهدی‌ها ترکیب می‌کنند، به طور فزاینده در شبکه‌های اجتماعی نفوذ می‌کنند. این نارواها، خطوط بین واقعیت و خیال را مبهم می‌کنند، مخصوصاً در منظری سیاسی پلاریزه شده آمریکا. با وجود چند سال وجود، این رسانه‌های دستکاری شده با معرفی ابزارهای هوش مصنوعی جدید، مانند نرم‌افزار Midjourney، مورد توجه قرار گرفته‌اند.

گزارش‌های ماه مارچ نشان می‌دهد که ابزارهای ایجاد تصویر با پشتیبانی از هوش مصنوعی از شرکت‌هایی مانند OpenAI و مايکروسافت ممکن است برای ساخت عکس‌های تقلبی که اطلاعات گمراه‌کننده از انتخابات یا رأی‌گیری منتشر می‌کنند، بهره‌برداری شوند، اگرچه این شرکت‌ها سیاست‌هایی علیه ساخت محتوای گمراه‌کننده دارند.

مقابله با کمپین‌های اطلاعات غلط
کمپین‌های اطلاعات غلط از تظاهر واقعی مقالات به‌عنوان یک راه مشترک برای گسترش دروغ از هوش مصنوعی بهره برده‌اند. غول‌های رسانه اجتماعی مانند فیسبوک، توییتر و یوتیوب تلاش می‌کنند تا از چنین تغییرات تصویری جلوگیری کنند، اما کارآیی تلاش‌های آن‌ها متفاوت است.

یک نمونه از انتشار اطلاعات غلط که توسط یک رسانه خبری چینی تحت کنترل دولتی ترویج شد، ادعای کاذبی بود که اتهام می‌زد که آمریکا در کازاخستان یک آزمایشگاه سلاح‌های زیست‌شیمیایی دارد، همانطور که اداره امنیت ملی (DHS) در یک ارزیابی تهدیدات ۲۰۲۴ اظهار کرد.

مشاور امنیت ملی جیک سالیوان در یک رویداد هوش مصنوعی در واشنگتن اقرار کرد که دفاع از دموکراسی در مقابل این کمپین‌های اطلاعاتی غیرقابل حصر بزرگ چالش‌برانگیز است زیرا از توانایی‌های هوش مصنوعی با قصد آسیب‌رسانی به بازیگران دولتی و غیردولتی استفاده کرده‌اند.

خطرات سلاح‌های زیست‌شیمیایی و سایبری
ادارات استخباراتی آمریکا و پژوهشگران به طور فزاینده نگران خطراتی هستند که دسترسی به قابلیت‌های پیشرفته هوش مصنوعی توسط عوامل بدنام خارجی به راه می‌اندازد. به‌طور قابل توجه، مطالعات از Griffin Scientific و Rand Corporation نشان داده است که مدل‌های زبان بزرگ (LLMs) ممکن است اطلاعاتی را که در ساخت سلاح‌های زیست‌شیمیایی به راه می‌اندازد فراهم کند.

در یک مثال، مشخص شد که LLMs قادر به انتقال دانش سطح پسادکتورا بر روی عوامل عفونی ویروسی با پتانسیل واگیردار هستند. تحقیقات بیشتر از سوی Rand نشان داد که LLMs ممکن است در برنامه‌ریزی و اجرای حمله زیستی کمک کنند، شامل پیشنهاد روش‌های توزیع قطره‌ای برای سم بوتولینوم.

در زمینه سایبری، ارزیابی تهدید 2024 DHS از استفاده از هوش مصنوعی برای توسعه ابزارهایی که حملات سایبری بزرگتر، سریعتر و مختف پیش‌رفته را بر روی زیرساخت‌های بحرانی از جمله خطوط لوله نفتی و راه‌آهن‌ها تسهیل می‌کند، هشدار داد. به دست آمد که چین و رقبای دیگر هوش مصنوعی توانایی تضعیف امنیت سایبری آمریکا از جمله حملات بدافزاری هوش مصنوعی دارند. مایکروسافت به ثبت نمود که گروه‌های هکر مربوط به دولت‌های چین و کره شمالی، اطلاعات استخباراتی نظامی روسیه و سپاه پاسداران ایران از طریق استفاده از مدل‌های زبان بزرگ همچنان در حال بهبود تلاش‌های هک خود هستند.

براساس زمینه مقاله، برخی اطلاعات مرتبط اضافی که ممکن است در نظر گرفته شوند عبارتند از:

رقابت بین‌المللی در توسعه هوش مصنوعی: رقابت برای آراستنی در هوش مصنوعی محدود به ایالات متحده و دشمنانش نیست. کشورهای سراسر جهان بخش قابل توجهی از منابع را در هوش مصنوعی سرمایه‌گذاری کرده‌اند. این مسئله پیچیده‌ای راههای بین‌المللی سه کارگفته که همزمان همکاری و رقابت صورت می‌گیرد، بر تحولات امنیتی جهانی و پویایی‌های اقتصادی تأثیر گذار است.

مسائل تنظیمی و اخلاقی: هنگامی که تکنولوژی‌های هوش مصنوعی پیشرفت می‌کنند، بسیج‌های متعدد، از جمله دولت‌ها و سازمان‌های بین‌المللی، با نقدین اخلاقی و نیاز به تنظیم مواجه هستند تا اطمینان حاصل شود که هوش مصنوعی به طور مسئولانه توسعه و استفاده می‌شود. بحث‌ها درباره نظارت، حریم‌خصوصی و استفاده اخلاقی از هوش مصنوعی در کاربردهای نظامی از جمله این مسائل است.

هوش مصنوعی و امنیت اقتصادی: فراتر از کاربردهای نظامی و امنیت سایبری، تکنولوژی هوش مصنوعی برای امنیت اقتصادی نیز تأثیر چشمگیری دارد. توانایی‌های اتوماسیون و بهینه‌سازی هوش مصنوعی می‌تواند به بهبود بهره‌وری و رشد اقتصادی کمک کند، اما ممکن است منجر به جابه‌جایی شغلی و افزایش نابرابری شود.

شعار ‘داور منساب’: بحث اطلاق شعار ‘داور منساب’، به‌خصوص بین ایالات متحده و چین، نگرانی و اختلاف ایجاد کرده‌است. نگرش داور منساب ممکن است از دلایلی که می‌تواند به حدوث چالش امنیتی منجر شود، که در آن هر طرف به تقویت توانمندی‌های بیشتر به پاسخ به تهدید پیشرفت دیگر منجر شود، که بتواند منجر به افزایش تنش‌ها شود.

پایین‌تر سؤالات کلیدی مرتبط با موضوع هستند، به‌همراه پاسخ‌های آن‌ها:

چرا حفاظت از تکنولوژی هوش مصنوعی آمریکا در برابر فرماندهان خارجی اهمیت دارد؟
این امر برای امنیت ملی، حفظ یک اورژانس رقابتی در اقتصاد جهانی و حفظ صحت اطلاعات و فرایندهای دموکراتیک ضروری است. هوش مصنوعی پیشرفته می‌تواند برای انجام حملات سایبری، تأثیر بر اندیشه‌های عمومی و حتی تقویت توانایی‌های سامانه‌های سلاح مورد سوء استفاده گردد.

چالش‌های اصلی در جلوگیری از سوء استفاده از هوش مصنوعی توسط عوامل خارجی چیست؟
اقدامات فناورانه برای حفاظت از هوش مصنوعی پیچیده هستند و ممکن است منابع زیادی را مصرف کند. همچنین طبیعت جهانی و پیوندی صنعت فناوری باعث می‌شود که کنترل گسترش اطلاعات و فناوری دشوار باشد. مسائل ارجاع، توسعه سریع فناوری، و تفاوت‌های در نرم‌افزارهای بین‌المللی و تنظیمات مواجهه‌کننده با چالش‌ها هستند.

چه اختلافاتی حول توسعه و دفاع از هوش مصنوعی وجود دارد؟
نگرانی‌ها درباره یک تسلیح ورزی هوش مصنوعی محتمل، دستورات اخلاقی مربوط به سامانه‌های سلاح خودکار، تعادل بین نوآوری و امنیت، و احتمال برخورد تصاعدی در مناقشات سایبری اصلی است در حوزه توسعه و دفاع از هوش مصنوعی.

مزایا و معایب تقویت تکنولوژی هوش مصنوعی شامل:

مزایا:
– تقویت امنیت ملی در برابر تهدیدات سایبری.
– حفاظت از زیرساخت‌های بحرانی و پایداری اقتصادی.

Privacy policy
Contact