تیغ دو لبه یادگیری ماشین: نوآوری و تهدیدهای سایبری

معضله هوش مصنوعی: محافظت از خود از سوی تاریک تکنولوژی

هوش مصنوعی (AI) ویژگی‌های منحصر به فرد خود را به گونه‌ای در دست افراد مختلف نشان می‌دهد. اوژنی چرشیوف، بنیانگذار و مدیر عامل مرکز نوآوری MTS، اخیراً در یک رویداد Smartpress در مورد این موضوع صحبت کرد. برای برخی، هوش مصنوعی می‌تواند به صورت یک آواتار دیجیتال ظاهر شود و به کاربر اجازه دهد که بدون داشتن دانش قبلی به زبان‌های خارجی ارتباط برقرار کند، در حالی که دیگران ممکن است از آن برای ایجاد ویدیوهای deepfake که شهرت یک فرد را آلوده می‌سازند، بهره ببرند.

هدایت خطرات هوش مصنوعی: از دزدی هویت تا deepfakes

چرشیوف معتقد است که در حال حاضر نیازمندیم که هوش مصنوعی ما را در مقابل تهدیدات هوش مصنوعی دیگری محافظت کند. با توسعه سریع شبکه‌های عصبی، خطرات جدید امنیت سایبری در حال ظهور هستند. وقفه‌های دیجیتال شخصی یا شرکتی، مانند تاریخچه‌های جستجو یا پست‌های رسانه‌های اجتماعی، به پندارهای هکرها قابل دسترسی هستند.

به عنوان مثال، پرسش‌های افراد به سامانه‌های AI معمولی مانند ChatGPT به خالقان آنها می‌شود، همانطور که به آشکاری در توافقنامه‌ها توضیح داده شده است. چنین هوش مصنوعی‌ای می‌تواند شناسه‌هایی به افراد اختصاص دهد و داده‌های جامعی درباره فعالیت‌های آن‌ها جمع‌آوری کند.

تهدیدهای سایبری هوش مصنوعی: آماده‌سازی برای کلاهبرداری‌ها و تقلب‌های حاصل از AI

اوژنی توضیح داد که نسخه “بدون قفل” از AI تولیدی واقع‌گرایانه محدودیت‌های ایمنی ندارد. با این ابزارها، افرادی که دارای تخصص فنی در هکینگ نیستند می‌توانند سعی کنند تا هک‌های سایبری مانند کلاهبرداری از بانک یا دزدیدن اطلاعات کارت اعتباری امتحان کنند.

پی‌فیشینگ به تهدیدی پیشرفته با deep phishing تبدیل شد. به عنوان یک سناریو توضیحی، یک کلاهبردار، مجهز به دانش قابل توجهی در مورد قربانی، در یک تماس تلفنی قانع‌کننده واقع‌گرا شرکت کند که ممکن است منجر به تراکنش‌های مالی مخرب شود.

یک مثال اخیر از توانایی‌های مردگیر AI یک تصویر واقعی اما جعلی از خواننده کیتی پری در جشنواره Met Gala 2024 بود که پیش از شناسایی به عنوان ایجاد یک شبکه عصبی جاری می‌شد.

کلاهبرداران همچنین از AI برای تهیه ویدیوهای جعلی و تهدیدآمیز برای شناسه‌ها استفاده کرده‌اند تا از قربانیانی که می‌ترسند نتوانند ثابت کنند که فیلم جعل شده است، مبلغ‌وار ي گزینی کنند.

مقابله با تهدیدات سایبری ظاهر شونده

مبارزه با این تهدیدات چالش‌انگیز است، اما چرشیوف و تیم مرکز نوآوری MTS معتقدند که می‌توان پیشرفت‌هایی را کرد. این شرکت تا 15 درصد از سود خود را به فن آوری R&D اختصاص داده‌است، با تأکید بر AI. توسعه‌ی اخیر آن‌ها، ممبرانا، یک سرویس طراحی شده است تا داده‌های دستگاه را از پیگیرها حفاظت کند در حالی که از وب مرور می‌کند.

علاوه بر این، تکنولوژی هوش مصنوعی پشت دوپلگان مجازی نه فقط برای فریب استفاده می‌شود. پروژه‌هایی مانند آلتگو توسط MTS از آن استفاده نموده‌اند تا آواتارهای دیجیتال مجددی ایجاد کنند که قابلیت نمایش فرد‌ها در کنفرانس‌های ویدیویی را دارا باشند یا به طور فوری زبان‌ها را ترجمه کنند.

کمک‌کنندگان دیجیتال: آینده ارتباطات تلفنی

چرشیوف به یادداشت آورد که قبولیت رو به رشدی از کمک‌های دیجیتال وجود دارد. ترسیم شک اولیه جا داده است به استفاده معمولی، با ابزارهای آنالوگ مانند الیس یاندکس که نشان می‌دهد چگونه این تکنولوژی‌ها در نهایت برای جزئیات زندگی افراد، از کارهای اداری تا خرید، ضروری خواهند شد.

اگرچه این ادغام بدون مشکل نیست، مانند “فراموشی دیجیتال”. با زیاد شدن وابستگی به کمک‌های دیجیتال، توانایی‌های شناختی انسانی مثل حفظ حافظه و اندیشه انتقادی ممکن است کمتر شود. چرشیوف خود از “تعویض دیجیتال” برای مقابله با وابستگی به ابزار گجت‌ها استفاده می‌کند و سایران را ترغیب به در نظر گرفتن آن می‌کند.

هوش مصنوعی: دوست نوآوری‌مان یا یک دشمن سایبری؟

طبیعت دوگانه هوش مصنوعی بیشتر در برنامه‌هایش مشهود است: می‌تواند به عنوان یک دوست بی‌قیمت در نوآوری خدمت کند یا با حفظ تهدیدات سایبری به عنوان یک دشمن عمل کند. پیشرفت‌های در یادگیری ماشین، پردازش زبان طبیعی و بینایی کامپیوتر در حال ایجاد پیشرفت بی‌نظیری در بخش‌های مختلف مانند پزشکی، مالی، حمل و نقل، و غیره می‌شود. راه‌حل‌های هوش مصنوعی می‌توانند وظایف پیچیده را سریع‌تر انجام دهند، به بهره‌وری کمک کنند و حتی تکنولوژی‌های نجات زندگی ایجاد کنند.

در جنگ سایبری امنیتی: هوش مصنوعی در مقابل هوش مصنوعی

تکامل سریع هوش مصنوعی شمشیر دو لبه‌ای است، به ویژه در چشم اندازهای امنیتی سایبری. سیستم‌های هوش مصنوعی می‌توانند رفتار کاربر عادی را مدل کنند و نواقصی را تشخیص دهند که به اهداف سایبری اشاره دارد، یا می‌توانند برای انجام کمپین‌های پیشرفته تقلبی که با دقت خوفناکی از ارتباطات واقعی را تقلید می‌کنند بهره بگیرند. پیشرفت این تهدیدات نیاز به یک تکامل موازی در تدابیر امنیتی ناشی از هوش مصنوعی دارد.

چالش‌های اخلاقی هوش مصنوعی

اخلاق هوش مصنوعی یک موضوع گرم است در میان نظر‌ها، با deepfakes که مسائلی در مورد رضایت، اصالت، و اعتماد به رسانه‌های دیجیتال بیان می‌کنند. توانایی هوش مصنوعی در تولید محتوای کاذب باورپذیر خطراتی برای شهرت‌های شخصی به وجود می‌آورد و با پیشرفت هوش مصنوعی، تمییز بین واقعی و جعلی حتی سختتر می‌شود.

کمک و حمایت در جنایات سایبری

پتانسیل برای اجازه‌دهی هوش مصنوعی به افراد با قصد خبیث از جعلی‌های ژوله‌ای به یک طیفی از جنایات سایبری گسترده است. از ابزارهای هوش مصنوعی خودکار تا ربات‌های قادر به انجام کلاهبرداری‌ها به مقیاس بزرگ، سوءاستفاده از هوش مصنوعی ممکن است منجر به از دست دادن قابل توجهی مالی و داده شود.

راهکارهای دفاعی ظاهر شونده در هوش مصنوعی

قابلیت‌های دفاعی هوش مصنوعی هم در حال پیشرفت است، با نرم‌افزارهایی مانند Membrana شرکت MTS که هدفش محافظت از کاربران را از پیگیرهای داده و ارائه‌های برای شناسایی deepfakes و سایر دروغ‌های ساخته‌شده توسط AI می‌باشد. سرمایه‌گذاری در هوش مصنوعی برای مبارزه با تهدیدات هوش مصنوعی نشان از تدابیر اقدامی از صنعت فناوری می‌دهد.

قیمت راحتی: فراموشی دیجیتال و وابستگی

بحث در مورد کمک‌های دیجیتال مربوط نه تنها به حریم خصوصی و امنیت داده‌ای، بلکه مشکلات روانی و شناختی نیز دارد. همانطور که هوش مصنوعی بخش‌های بیشتری از زندگی روزمره را انجام می‌دهد، خطری وجود دارد که توانایی‌های شناختی انسانی ممکن است ضعیف شود، منجر به ‘فراموشی دیجیتال’ شود جایی که وابستگی به تکنولوژی توانایی حافظه را به طور قابل توجهی کاهش می‌دهد.

نتیجه نهایی

در کل، تکنولوژی هوش مصنوعی پیشرفت‌های بزرگی را پیشنهاد می‌دهد در حالی که خطرات جد

Privacy policy
Contact