محافظت در برابر کلاهبرداری‌های مالی قدرت گرفته از هوش مصنوعی نیازمند چیزی بیشتر از منع کارکنان است

کلاهبرداری‌های مالی در تحول است و این تحول به دلیل استفاده روزافزون به مصنوعی هوشمند (AI) توسط افراد تبهکار رخ می‌دهد. شرکت‌هایی که از کارکنان خود در استفاده از AI منع می‌کنند، در برابر این کلاهبرداری‌ها مصون نیستند، زیرا افراد تبهکار از ابزارهای AI مانند ChatGPT و FraudGPT استفاده می‌کنند تا دیپفیک های قانع کننده و ایمیل های فیشینگ واقعگرا ایجاد کنند. شیوع این کلاهبرداری‌ها آشکار است؛ براساس نظرسنجی انجمن حرفه‌ای حسابداران مالی، ۶۵٪ از سازمان‌ها در سال ۲۰۲۲ با سعی در کلاهبرداری پرداخت‌های مالی مواجه شدند یا آن را تجربه کردند.

ایمیل‌های فیشینگ هنوز هم یک استراتژی متداول است که جنایتکاران با تقلید از منابع قابل اعتماد افراد را به اشتراک گذاری اطلاعات حساس یا صورت گرفتن پرداخت‌های فریبکارانه فریب می‌دهند. استفاده از AI مصنوعی، تشخیص بین ایمیل‌های اصلی و جعلی را دشوارتر می‌کند. قبلاً، اشتباهات دستور زبانی یا نوشتار عجیب ممکن بود شبهه‌ها را برانگیزد، اما اکنون، جنایتکاران می‌توانند از AI برای ایجاد ایمیل‌های قانع کننده استفاده کنند که حتی از مدیران شرکت تظاهر می‌کنند.

یک مورد مشهور در هنگ کنگ به عنوان یک مثال هشداردهنده عمل می‌کند. یک کارمند مالی درخواست انتقال ۲۵.۶ میلیون دلار از تماس ویدئویی افقی حسابداری که با رئیس مالی و دست‌اندرکاران شرکت در انگلستان داشت برداشت کرد. فقط بعد از تماس با دفتر مرکزی کارمندان متوجه فریب شدند. این حادثه نشان‌دهنده سطح معتبر برداشته شده توسط دیپفیک‌های قدرت گرفته از AI است.

چالش اساسی در دسترسی به ابزارهای AI مولد و حجم زیاد اطلاعات آنلاین موجود است که می‌تواند برای ایجاد ایمیل‌های فیشینگ قانع کننده استفاده شود. علاوه بر این، گسترش رابط‌های برنامه‌نویسی کاربردی (API) و پلتفرم‌های معاملات مالی، سطح حمله به جرم افزایش یافته است. اتوماسیون همچنین نقش مهمی را ایفا می‌کند، که به تبهکاران امکان می‌دهد حملات را به سرعت بالا ببرند و احتمال موفقیت خود را افزایش دهند.

برای مقابله با کلاهبرداری‌های مالی قدرت گرفته از AI، صنعت مالی به شبکهای AI خود متوسل می‌شود. شرکت‌هایی مانند مسترکارد در فناوری AI سرمایه‌گذاری می‌کنند تا خلافکاران را شناسایی و جلوگیری از تقلب کنند. با این حال، بررسی این مسئله نیازمند یک رویکرد چندگانه است که شامل آموزش کارکنان، تدابیر امنیتی قوی و سازگاری مستمر با تاکتیک‌های در حال تعامل است.

در نتیجه، شرکت‌ها باید درک کنند که منع کارکنان از استفاده از حاکمیت AI مکافیئت کافی برای مقابله با کلاهبرداری‌های مالی قدرت گرفته از AI نیست. در آنجا اهمیتی دارد تا استراتژی جامعی را پیاده کنند که فناوری، آگاهی کارکنان و همکاری صنعتی را ترکیب کند تا در برابر تهدیدهای در حال تکامل قرار بگیرند.

The source of the article is from the blog elektrischnederland.nl

Privacy policy
Contact