راهاندازندگان هوش مصنوعی پیشرفتهتر در شرکتهای فناوری بزرگ جهانی مانند GPT-4o از OpenAI و Gemini 1.5 Pro از گوگل در ماه مه 2024، قدم بلندی در ارایه ویژگیهای هوشمند برای بهینهسازی تجربه کاربران برداشتند. با این اقدامات، اما، افزایشی در حوزهی سناریوهای تقلبی آنلاین همراه شده است.
رشد نمایی تهدیدات امنیت سایبری
در یک سمینار اخیر، معاون وزیر ارتباطات و اطلاعات ویتنام، Phạm Đức Long، در مورد افزایش مداوم حوادث حملات سایبری تبادل نظر کرد. این حوادث دارای پیچیدگی و سختی بیشتر و بیشتر میشوند. این رشد که توسط هوش مصنوعی تغذیه میشود، بالاترین تهدیدهای ممکن روبروی کاربران را بالا میبرد و به جرمها اجازه میدهد که به راحتی مالور جدید و کلاهبرداریهای پیچیدهتر را خلق کنند.
گزارش سازمان ملی امنیت سایبری هزینه تلخی که ناشی از ریسکهای سایبری مرتبط با هوش مصنوعی است را بیش از 1 تریلیون دلار اعلام کرد. تنها در ویتنام، آثار مالی به ارزش بین 8 هزار تا 10 هزار میلیارد VND تخمین زده شده است. هم اکنون، استفاده از هوش مصنوعی در تقلید صداها و ویژگیهای چهره برای اهداف تقلبی به سرعت در حال افزایش است.
پیشبینیها نشان میدهد که تا سال 2025 ممکن است حدود 3000 حمله سایبری در ثانیه و 12 شکل جدید از مالور و 70 آسیبپذیری روزانه وجود داشته باشد.
گسترش فناوری دیپفیک
Nguyễn Hữu Giáp، مدیر BShield که راهکارهای امنیتی برای برنامهها ارائه میدهد، توجه میکند که ایجاد تصاویر و صداهای جعلی با پیشرفتهای فناوری هوش مصنوعی کنونی دشوار نیست. افراد بدنام به راحتی میتوانند دادههای کاربران را که به طور علنی در رسانههای اجتماعی به اشتراک گذاشته شده یا از طریق تاکتیکهای گمراهکننده مانند مصاحبههای کاری آنلاین به دست آورند. شبیهسازیهای BShield نشان داد که یک فراری چگونه میتواند یک چهرهی موجود از تماس تصویری را درون یک شناسنامه جعلی وارد کند، آن را با یک بدن کارآمد ترکیب کند تا سیستمهای eKYC را گمراه کند، و سپس به عنوان یک فرد واقعی شناخته شود.
از دیدگاه یک کارشناس IT آنه Chuyên Gia An Toàn Thông Tin نامی از Thành Phố Hồ Chí Minh، نگرانی های خود را دربارهی آسانی که بازیگران خرابکار میتوانند از هوش مصنوعی مانند chatGPT برای تولید ایمیلهای آبروستاده جعلی به شکل ارتباطات معتبر از سوی بانکها یا سازمانهای قابل اعتماد ابراز میکند، گاهی حاوی ضمائم نرمافزارهای مالور که آماده است تا فرد بیخبری را تحت تاثیر قرار دهد، میکند.
سوالات و پاسخهای مهم:
– چطور افزایش تهدیدات امنیت سایبری به رهبری هوش مصنوعی بر تأثیرگذاری بر کسبوکارها و افراد دارد؟ با هوش مصنوعی پیشرفته، جنایتکاران سایبری میتوانند حملات پیچیدهتری انجام دهند که میتواند منجر به دزدی اطلاعات حساس، از دست رفتن مالی، و آسیب به شهرت شود. هم کسبوکارها و هم افراد به این خطرات به شدت آسیبپذیر هستند و نیازمند تدابیر امنیتی و آگاهی بیشتر هستند.
– چه نقشی دقیق دیپفیک در ریسکهای امنیت سایبری دارد؟ فناوری دیپفیک که تصاویر و صداهای جعلی معتقدانه ایجاد میکند، ریسکهای قابل توجهی دارد زیرا میتواند برای تقلید افراد، تغییر درک، و تسهیل تقلب به کار گرفته شود. قابلیت مالی و دسترس پذیری آن، آن را به یک نگرانی رو به افزایش برای امنیت سایبری تبدیل میکند.
– چالشهای اصلی در مقابله با تهدیدات سایبری تولید شده توسط هوش مصنوعی چیست؟ تهدیدات سایبری تولید شده توسط هوش مصنوعی معمولآ پیچیده هستند و میتوانند به طور سریع تکامل یابند؛ این امر آنها را دشوار به شناسایی و پاسخگویی میکند. یکی از چالشهای اصلی، ایجاد و توسعه مداوم فناوری و روشهای موجود برای مقابله با این تهدیدات پیشرفته است.
چالشها و اختلافات کلیدی:
– مسائل اخلاقی: توسعه هوش مصنوعی که بهطور پتانسیلی میتواند مورد سوءاستفاده قرار گیرد، سوالات اخلاقی در مورد مسئولیت خالقان و نیاز به آییننامهها و مکانیزمهای کنترل برای جلوگیری از سوءاستفاده اطلاعاتی بر میانگیزد.
– نگرانیها دربارهی حریم خصوصی: هوش مصنوعی چندان با دادههای شخصی یکپارچه میشود که خطرات بالاتری از نقض حریم خصوصی را به دنبال دارد، منجر به اختلافاتی دربارهی جمعآوری داده، رضایت، و تعادل بین مزایا و حقوق حریم خصوصی میشود.
– چارچوب تنظیمی: تعیین یک چارچوب تنظیمی گستردهی جهانی برای مدیریت استفاده دوگانه از هوش مصنوعی برای اهداف مشروع و بدیل بسیار پیچیده است که با توجه به استانداردهای قانونی مختلف در کشورها متفاوت است.
مزایا و معایب:
– مزایای هوش مصنوعی نسل بعدی: فناوری هوش مصنوعی بهبودی چشمگیر در بسیاری از صنایع با خلق کارایی بیشتر، ارایهی تجزیه و تحلیل داده بهتر، و بهبود سفارشی سازی خدمات میتواند ایجاد کند. این میتواند به تشخیص و پاسخگویی به تهدیدات سایبری به بهتری کمک کند.
– معایب هوش مصنوعی نسل بعدی: افزایش پیچیدگی فناوریهای هوش مصنوعی به این معنا است که ابزارهای پیشرفتهتری برای جنایتکاران سایبری باعث تولید تهدیدات سایبری پیچیده و دشوار به شناسایی میشوند. به علاوه، مصرف احتمالی هوش مصنوعی برای اهداف نااخلاقی یک نگرانی مهم است.
شرکتهای OpenAI و Google فعالیتهایی در حوزهی توسعه و استقرار هوش مصنوعی پیشرفته دارند که مرتبط با موضوع تهدیدات امنیت سایبری مرتبط با فناوریهای هوش مصنوعی نسل بعدی است. با این حال، باید از منابع معتبر برای جلوگیری از اطلاعات اشتباه و رصد آخرین توسعهها در صنعت اطمینان حاصل کرد.