همانطور که بریتانیا برای انتخابات محلی و عمومی امسال آماده میشود، کارشناسان امنیت سایبری هشدار دادهاند که حملات سایبری حمایتشده توسط دولت و کمپینهای دیساطلاعاتی خطرات قابل توجهی را به همراه خواهند داشت. استفاده از هوش مصنوعی (AI) در این فعالیتهای خبیث احتمالاً امری بسیار نگرانکننده خواهد بود. انتخابات آینده در شرایطی برگزار خواهند شد که درگیر موضوعاتی نظیر افزایش هزینههای زندگی و تنشهای مهاجرتی هستند که پیچیدگی منطقه سیاسی را افزایش میدهد.
غالب خطرات امنیتی سایبری میتواند در ماههای پیش از روز انتخابات به وجود آید. موارد مشابه در گذشته روی دادهاند. انتخابات ریاستجمهوری 2016 آمریکا و رأی گیری بریتانیا در خروج از اتحادیه اروپا هر دو توسط اطلاعات نادرست انتشار یافته از طریق پلتفرمهای رسانههای اجتماعی آلوده شده بودند. گروههای مرتبط با دولت، که به عنوان مربوط به روسیه شناخته میشدند، مقصر این مزاحمتها بودند. از آن زمان به بعد، عوامل دولتی توانایی بیشتری در تلاش برای تغییر نتایج انتخابات را به وجود آوردهاند از طریق حملات معمول در کشورهای مختلف.
اخیراً، انگلیس یک گروه هکی شده مرتبط با دولت چین به نام APT 31 را متهم به تلاش برای دسترسی به حسابهای ایمیل نمایندگان کرد. اگرچه این تلاشها ناموفق بود، این حادثه نگرانی روزافزونی را در مورد فعالیتهای هکی حمایتی از دولت نشان میدهد. به عنوان پاسخ به هک، لندن تحریمها را بر چند نفر از افراد چینی و یک شرکت فناوری که فرض میشود با APT 31 مرتبط است، اعمال کرد. ایالات متحده، استرالیا و زلاند نیز تحریمهای خود را اجرا کردهاند. با این حال، چین این اتهامها را رد کرده است.
یکی از اصلیترین تهدیدات امنیتی سایبری برای انتخابات آینده استفاده از دیساطلاعات وابسته به AI است. کارشناسان پیشبینی میکنند که در این سال به دلیل افزایش دسترسی به ابزارهای AI، کمپینهای دیساطلاعاتی افزایش خواهند یافت. مدیا سنتزی، از جمله تصاویر، ویدیوها و صدا، به طور معمول با نام «دیپفیک» اطلاعات میشوند که احتمالاً با افزایش دسترسی افراد به ایجاد محتوای ساختهشده توسط AI، گستردهتر خواهند شد. عوامل تهدیدی از قبیل کشورها و جنایتکاران سایبری قرار است از AI برای انجام حملات مبتنی بر هویت استفاده کنند، از جمله مواردی نظیر انگیزههای اجتماعی و رمزگذاری، تحت عنوان اصلی بر دستکاری هدفمند، که اهداف آنها شامل سیاستمداران، کادرهای انتخابی و سازمانهای مربوط به انتخابات است. گسترش AI و محتوای محرکشده توسط بات همچنین به گسترش اطلاعات غلط در مقیاس بسیار بزرگتر از چرخههای انتخاباتی گذشته کمک خواهد کرد.
جامعه امنیت سایبری بر لزوم افزایش آگاهی و همکاری بینالمللی برای رسیدگی به این نوع دیساطلاعات تولید شده توسط AI تأکید میکند. آدم میلرز، کارشناس عملیات خصمانه، دیساطلاعات پیششمرده توسط AI را به عنوان یکی از بزرگترین تهدیدات برای انتخابات سال 2024 شناسایی کرده است. او خطر میزانیکه کشورهای دشمنآمیز مانند چین، روسیه و ایران ممکن است از AI و دیپفیکها بهره ببرند تا نقلهای معقولی را که از تصدیقهای تائیدی استفاده میکنند، ایجاد کنند و تهدید جدی ایمنی روند دموکراتیک را ایجاد کنند.
AI چالش دیگری را در کاهش مانع جلوه میدهد. ایمیلهای کلاهبرداری با استفاده از ابزارهای AI برای ارائه پیامهای معقول قطعی پدیدار شدهاند. هکرها همچنین از مدلهای AI آموزش دیده بر دادههای رسانههای اجتماعی برای انجام حملات شخصیتر بهره میگرفتند. دوران گردشی صداهای AI تقلبی، مشابه هدف دشمن کیرو استارمر، رهبر حزب کارگر در اکتبر 2023، نگرانی روزافزونی را در مورد دیپفیکها و تأثیرشان بر انتخابات به تأیید میرساند.
همانطور که فناوری تقلب عمیق پیچیدهتر میشود، شرکتهای فناوری در یک جنگ مداوم برای مبارزه با سوء استفاده از آن هستند. AI اکنون برای تشخیص تقلبهای عمیق استفاده میشود، اما خطوط بین واقعیت و دستکاری بندرت تفکیک میشوند. نشانههایی خاص مانند مغالطات ناشی از نقصهای AI میتوانند به تعیقهای محتوا کمک کنند. به عنوان مثال، اگر یک قاشق در یک ویدیو تولیدشده توسط AI ناگهان ناپدید شود، این ممکن است نشانهای از دستکاری باشد.
همانطور که بریتانیا به انتخابات خود نزدیک میشود، کارشناسان صنعت اهمیت تأیید اصالت اطلاعات برای مبارزه با خطرات حملات سایبری حمایتی از دولت و دیساطلاعاتی را تأکید میکنند. استفاده از AI در این فعالیتهای خبیثشناخته چندان چالش خواهد بود، بنابراین ضروری است که افراد، سازمانها و دولتها هوشیار باقی بمانند تا صحت روند دموکراتیک را حفظ کنند.
پیوندهای مرتبط:
– CNBC (دامنهی اصلی برای منبع مقاله)
– مرکز ملی امنیت سایبری (مرکز ملی امنیت سایبری بریتانیا)
– سازمان بهداشت جهانی (سازمان بهداشت جهانی)
– وزارت امنیت داخلی (وزارت امنیت داخلی ایالات متحده)
– یوروپول (آژانس اتحادیه اروپا برای همکاری در امور انفرادی)
[ویدیو](https://www.youtube.com/embed/BTb_FRdARNI)