معضله هوش مصنوعی: محافظت از خود از سوی تاریک تکنولوژی
هوش مصنوعی (AI) ویژگیهای منحصر به فرد خود را به گونهای در دست افراد مختلف نشان میدهد. اوژنی چرشیوف، بنیانگذار و مدیر عامل مرکز نوآوری MTS، اخیراً در یک رویداد Smartpress در مورد این موضوع صحبت کرد. برای برخی، هوش مصنوعی میتواند به صورت یک آواتار دیجیتال ظاهر شود و به کاربر اجازه دهد که بدون داشتن دانش قبلی به زبانهای خارجی ارتباط برقرار کند، در حالی که دیگران ممکن است از آن برای ایجاد ویدیوهای deepfake که شهرت یک فرد را آلوده میسازند، بهره ببرند.
هدایت خطرات هوش مصنوعی: از دزدی هویت تا deepfakes
چرشیوف معتقد است که در حال حاضر نیازمندیم که هوش مصنوعی ما را در مقابل تهدیدات هوش مصنوعی دیگری محافظت کند. با توسعه سریع شبکههای عصبی، خطرات جدید امنیت سایبری در حال ظهور هستند. وقفههای دیجیتال شخصی یا شرکتی، مانند تاریخچههای جستجو یا پستهای رسانههای اجتماعی، به پندارهای هکرها قابل دسترسی هستند.
به عنوان مثال، پرسشهای افراد به سامانههای AI معمولی مانند ChatGPT به خالقان آنها میشود، همانطور که به آشکاری در توافقنامهها توضیح داده شده است. چنین هوش مصنوعیای میتواند شناسههایی به افراد اختصاص دهد و دادههای جامعی درباره فعالیتهای آنها جمعآوری کند.
تهدیدهای سایبری هوش مصنوعی: آمادهسازی برای کلاهبرداریها و تقلبهای حاصل از AI
اوژنی توضیح داد که نسخه “بدون قفل” از AI تولیدی واقعگرایانه محدودیتهای ایمنی ندارد. با این ابزارها، افرادی که دارای تخصص فنی در هکینگ نیستند میتوانند سعی کنند تا هکهای سایبری مانند کلاهبرداری از بانک یا دزدیدن اطلاعات کارت اعتباری امتحان کنند.
پیفیشینگ به تهدیدی پیشرفته با deep phishing تبدیل شد. به عنوان یک سناریو توضیحی، یک کلاهبردار، مجهز به دانش قابل توجهی در مورد قربانی، در یک تماس تلفنی قانعکننده واقعگرا شرکت کند که ممکن است منجر به تراکنشهای مالی مخرب شود.
یک مثال اخیر از تواناییهای مردگیر AI یک تصویر واقعی اما جعلی از خواننده کیتی پری در جشنواره Met Gala 2024 بود که پیش از شناسایی به عنوان ایجاد یک شبکه عصبی جاری میشد.
کلاهبرداران همچنین از AI برای تهیه ویدیوهای جعلی و تهدیدآمیز برای شناسهها استفاده کردهاند تا از قربانیانی که میترسند نتوانند ثابت کنند که فیلم جعل شده است، مبلغوار ي گزینی کنند.
مقابله با تهدیدات سایبری ظاهر شونده
مبارزه با این تهدیدات چالشانگیز است، اما چرشیوف و تیم مرکز نوآوری MTS معتقدند که میتوان پیشرفتهایی را کرد. این شرکت تا 15 درصد از سود خود را به فن آوری R&D اختصاص دادهاست، با تأکید بر AI. توسعهی اخیر آنها، ممبرانا، یک سرویس طراحی شده است تا دادههای دستگاه را از پیگیرها حفاظت کند در حالی که از وب مرور میکند.
علاوه بر این، تکنولوژی هوش مصنوعی پشت دوپلگان مجازی نه فقط برای فریب استفاده میشود. پروژههایی مانند آلتگو توسط MTS از آن استفاده نمودهاند تا آواتارهای دیجیتال مجددی ایجاد کنند که قابلیت نمایش فردها در کنفرانسهای ویدیویی را دارا باشند یا به طور فوری زبانها را ترجمه کنند.
کمککنندگان دیجیتال: آینده ارتباطات تلفنی
چرشیوف به یادداشت آورد که قبولیت رو به رشدی از کمکهای دیجیتال وجود دارد. ترسیم شک اولیه جا داده است به استفاده معمولی، با ابزارهای آنالوگ مانند الیس یاندکس که نشان میدهد چگونه این تکنولوژیها در نهایت برای جزئیات زندگی افراد، از کارهای اداری تا خرید، ضروری خواهند شد.
اگرچه این ادغام بدون مشکل نیست، مانند “فراموشی دیجیتال”. با زیاد شدن وابستگی به کمکهای دیجیتال، تواناییهای شناختی انسانی مثل حفظ حافظه و اندیشه انتقادی ممکن است کمتر شود. چرشیوف خود از “تعویض دیجیتال” برای مقابله با وابستگی به ابزار گجتها استفاده میکند و سایران را ترغیب به در نظر گرفتن آن میکند.
هوش مصنوعی: دوست نوآوریمان یا یک دشمن سایبری؟
طبیعت دوگانه هوش مصنوعی بیشتر در برنامههایش مشهود است: میتواند به عنوان یک دوست بیقیمت در نوآوری خدمت کند یا با حفظ تهدیدات سایبری به عنوان یک دشمن عمل کند. پیشرفتهای در یادگیری ماشین، پردازش زبان طبیعی و بینایی کامپیوتر در حال ایجاد پیشرفت بینظیری در بخشهای مختلف مانند پزشکی، مالی، حمل و نقل، و غیره میشود. راهحلهای هوش مصنوعی میتوانند وظایف پیچیده را سریعتر انجام دهند، به بهرهوری کمک کنند و حتی تکنولوژیهای نجات زندگی ایجاد کنند.
در جنگ سایبری امنیتی: هوش مصنوعی در مقابل هوش مصنوعی
تکامل سریع هوش مصنوعی شمشیر دو لبهای است، به ویژه در چشم اندازهای امنیتی سایبری. سیستمهای هوش مصنوعی میتوانند رفتار کاربر عادی را مدل کنند و نواقصی را تشخیص دهند که به اهداف سایبری اشاره دارد، یا میتوانند برای انجام کمپینهای پیشرفته تقلبی که با دقت خوفناکی از ارتباطات واقعی را تقلید میکنند بهره بگیرند. پیشرفت این تهدیدات نیاز به یک تکامل موازی در تدابیر امنیتی ناشی از هوش مصنوعی دارد.
چالشهای اخلاقی هوش مصنوعی
اخلاق هوش مصنوعی یک موضوع گرم است در میان نظرها، با deepfakes که مسائلی در مورد رضایت، اصالت، و اعتماد به رسانههای دیجیتال بیان میکنند. توانایی هوش مصنوعی در تولید محتوای کاذب باورپذیر خطراتی برای شهرتهای شخصی به وجود میآورد و با پیشرفت هوش مصنوعی، تمییز بین واقعی و جعلی حتی سختتر میشود.
کمک و حمایت در جنایات سایبری
پتانسیل برای اجازهدهی هوش مصنوعی به افراد با قصد خبیث از جعلیهای ژولهای به یک طیفی از جنایات سایبری گسترده است. از ابزارهای هوش مصنوعی خودکار تا رباتهای قادر به انجام کلاهبرداریها به مقیاس بزرگ، سوءاستفاده از هوش مصنوعی ممکن است منجر به از دست دادن قابل توجهی مالی و داده شود.
راهکارهای دفاعی ظاهر شونده در هوش مصنوعی
قابلیتهای دفاعی هوش مصنوعی هم در حال پیشرفت است، با نرمافزارهایی مانند Membrana شرکت MTS که هدفش محافظت از کاربران را از پیگیرهای داده و ارائههای برای شناسایی deepfakes و سایر دروغهای ساختهشده توسط AI میباشد. سرمایهگذاری در هوش مصنوعی برای مبارزه با تهدیدات هوش مصنوعی نشان از تدابیر اقدامی از صنعت فناوری میدهد.
قیمت راحتی: فراموشی دیجیتال و وابستگی
بحث در مورد کمکهای دیجیتال مربوط نه تنها به حریم خصوصی و امنیت دادهای، بلکه مشکلات روانی و شناختی نیز دارد. همانطور که هوش مصنوعی بخشهای بیشتری از زندگی روزمره را انجام میدهد، خطری وجود دارد که تواناییهای شناختی انسانی ممکن است ضعیف شود، منجر به ‘فراموشی دیجیتال’ شود جایی که وابستگی به تکنولوژی توانایی حافظه را به طور قابل توجهی کاهش میدهد.
نتیجه نهایی
در کل، تکنولوژی هوش مصنوعی پیشرفتهای بزرگی را پیشنهاد میدهد در حالی که خطرات جد