تقویت حفاظت برای توسعههای هوش مصنوعی
دولت بایدن در حال اتخاذ اقدامات پیشگیرانه برای ایمنسازی برترین استراتژیهای هوش مصنوعی (AI) که از ایالات متحده ناشی میشود در برابر بهرهبرداری ممکن از سوی چین و روسیه میباشد. این اقدام نشاندهنده نگرانیهای افزایش یافته است و میان تحقیقگران دولتی و خصوصی وجود دارد که نگرانی میکنند که دشمنان بتوانند از فناوریهای AI برای شروع حملات سایبری شدید و یا توسعه سلاحهای زیستشناختی کارا استفاده کنند.
دیپفیک و تهدید به اعتبار اطلاعات
دیپفیکها که اغلب در رسانههای اجتماعی دیده میشوند، مرز بین واقعیت و افسون در منظر سیاستهای همچنین منفی فراگیری آمریکا را پنهان میکنند. این تقلب های ویدیویی فوق واقعبینانه که توسط الگوریتمهای AI آموزش دیده بر اساس محتوای ویدیوی آنلاین گسترده تولید شدهاند، پس از معرفی ابزارهای AI تولیدی جدید، قابل دسترس و هزینه آنها کاهش یافتهاند. چنین ابزارهایی میتوانند برای ایجاد محتوای دیپفیک معقول با سهولت نسبی و هزینه پایین استفاده شوند.
مقابله با حملات اطلاعات غلط
توانایی AI در تقلید مقالات خبری معتبر در کمپینهای اطلاعات غلط برای منتشرکردن اخبار جعلی بهرهبرداری میشود. با وجود تلاشهای قابل توجهی که توسط پلتفرمهای بزرگ رسانههای اجتماعی برای ممنوعیت و حذف محتوای دیپفیک انجام شده است، کارایی این اقدامات متفاوت است. به عنوان مثال، یک خبرگزاری دولتی چینی که از AI تولیدکننده استفاده کرد، طلب کرد که ایالات متحده در کازاخستان سلاحهای زیستشناختی تولید میکند، هدف آن مقابله با چین بود.
نگرانیهای درباره سلاحهای زیستی کمک شده توسط AI
جوامع اطلاعاتی، مؤسسات تحقیقاتی و دانشگاهی در ایالات متحده، افزایش نگرانیهایی درباره خطراتی که توسط موجودات خارجی دشمن با دسترسی به قابلیتهای مدرن AI ایجاد میشود بیان میکنند. مدلهای پیشرفته AI قابلیت ارائه اطلاعات دقیق و دقیق را دارند که میتواند در فرایند تولید سلاحهای زیستی مؤثر باشد. این شامل ارائه تخصص معادل پسادکترا برای حل چالشهای پیچیده در زمان توسعه ویروسهای خطرناک میشود.
جنگ سایبری و پیشرفتهای AI
براساس ارزیابی سال 2024 دپارتمان امنیت ملی ایالات متحده از تهدیدات داخلی، موجودیتهای دیجیتالی به احتمال زیاد از AI برای افزایش دامنه، سرعت، کارایی و درونگرایی حملات سایبری علیه زیرساختهای حیاتی مانند لولههای گاز و راهآهنها استفاده خواهند کرد. علاوه بر این، کشورهایی مانند چین همچنان در حال نوآوری در فناوریهای AI هستند که برای ضعف دفاعهای دیجیتال آمریکا طراحی شدهاند، از جمله برنامههای AI تربیتیتولیدی که حملات برنامههای آلوده را پشتیبانی میکنند. شرکتهایی مانند مایکروسافت از فعالیتهای جاسوسی سایبری توسط گروههای دولتی چینی و کرهشمالی و همچنین اطلاعات اطلاعات نظامی روسیه خبر دادهاند که به دنبال بهبود حملات آنلاین آنها با استفاده از مدلهای زبانی پیشرفته هستند.
برای اضافه کردن زمینه به مقاله “برنامههای آمریکا برای حفاظت از نوآوریهای پیشرفتهوشمند علیه حریفان،” اطلاعات زیر مهم هستند و باید مورد توجه قرار گیرند:
کنترل صادرات و چالشهای همکاری تحقیقاتی:
دولت آمریکا ممکن است از کنترلهای صادراتی بر روی برخی فناوریهای AI خاص برای جلوگیری از ورود آنها به دست دولتهای دشمن استفاده کند. این ممکن است باعث چالشهایی در همکاری تحقیقاتی بینالمللی و به اشتراکگذاری اطلاعات در جامعه علمی شود. تعادل میان امنیت ملی و طبیعت سنتی تحقیقات علمی یک چالش اساسی در اینجاست.
تأثیر بر بازرگانی و نوآوری:
سیاستهای حفاظتطلبانه ممکن است بر توانایی شرکتهای آمریکایی برای رقابت برنده و جهانی اثر بگذارد، زیرا ممکن است با محدودیتها در فروش و نصب بینالمللی سیستمهای AI مواجه شوند. علاوه بر این، محدود کردن نرمافزارهای AI میتواند باعث کند شدن نوآوری شود اگر تحقیقگران و شرکتها در توانایی آنها برای همکاری بینالمللی محدود شوند یا به دلیل الزامات رعایتی دچار مشکل شوند.
ملاحظات تنظیمی و اخلاقی:
پیشرفت فناوری AI سوالات اخلاقی و تنظیمی مهمی را مطرح میکند. سیاستهای درست میتواند استفاده اخلاقی را ترویج کند، اما سیاستهای بیش از حد محدودکننده ممکن است جلوی کاربردهای مفید AI در حوزههایی نظیر مراقبتهای بهداشتی، نظارت بر محیط زیست و آموزش بگیرد.
جذب و نگهداشت استعداد:
تحقیق و توسعه در زمینه AI تحت تأثیر شدیدی از دسترسی به استعداد است. سیاستهای مهاجرتی ایالات متحده نقش اساسی در جذب و نگهداشت برترین تحقیقگران و متخصصان بینالمللی AI دارد. تنگکردن سیاستها ممکن است تردید به ورود استعدادها را ایجاد کند و می تواند موجب دست و پنج حال برای نوآوری شود.
مزایا حفظ کردن نوآوریهای پیشرفته AI شامل حفاظت از امنیت ملی، حفظ اعتبار اطلاعات و جلوگیری از اینکه دشمنان از کسب مزیتهای نظامی استراتژیک از جانبی برخوردار شوند. این میتواند توسعه دلایل و استانداردهای اخلاقی AI را تشویق کند.
معایب ممکن است مربوط به مانع شدن از همکاری علمی جهانی، بطور پتانسیل سرعت کاهش دهد، و به چالشها برای شرکتها که در راههای توافق با مقررات جدید هستند، وارد شود.
انتقادها ممکن است در مورد تعریف فناوریهای AI که باید محدود شوند و چگونگی اجرای آییننامهها بدون دچار کردن نوآوری، بوجود بیاید. بحثها درباره حریم شخصی و آزادیهای مدنی نیز احتمالاً به عنوان AI بیشتر در مراحل نظارت و تجزیه و تحلیل داده دخیل میشود.
برای دریافت اطلاعات بیشتر در مورد موضوعات مرتبط، به صفحه اصلی وزارت امنیت داخلی آمریکا یا وبسایت رسمی کاخ سفید مراجعه کنید، جایی که ممکن است اعلانات سیاستی و چارچوبهای تنظیمی جدید مربوط به AI را پیدا کنید.
The source of the article is from the blog enp.gr