Май 2024: появление искусственного интеллекта следующего поколения увеличивает кибербезопасностн риски

Раскрытие передовых версий искусственного интеллекта крупными мировыми технологическими компаниями, такими как OpenAI с GPT-4o и Google с Gemini 1.5 Pro в мае 2024 года, отметило значительный скачок в умных функциях, направленных на оптимизацию пользовательского опыта. Однако наряду с этими успехами возникает нарастание сценариев онлайн-мошенничества.

Экспоненциальный рост угроз кибербезопасности

На недавнем семинаре вьетнамский заместитель министра информации и связи Вьетнама, Фам Дук Лонг, обсудил постоянно увеличивающиеся случаи кибератак, которые становятся все более сложными и хитрыми. Этот рост, поддержанный искусственным интеллектом, увеличивает потенциальные угрозы, с которыми сталкиваются пользователи, позволяя преступникам легко создавать новые вредоносные программы и хитроумные махинации.

Отчет Национального агентства кибербезопасности подчеркнул высокую стоимость киберугроз, связанных с искусственным интеллектом, которые привели к более чем 1 триллиону долларов ущерба по всему миру. Только во Вьетнаме финансовые потери оцениваются в диапазоне от 8 000 до 10 000 миллиардов VND. В настоящее время использование искусственного интеллекта для подражания голосам и чертам лица в мошеннических целях стремительно возрастает.

Прогнозы показывают, что к 2025 году может быть около 3 000 кибератак в секунду, в сочетании с 12 новыми штаммами вредоносных программ и 70 уязвимостями ежедневно.

Развитие технологии дипфейков расширяет инструментарий преступников

Нгуен Хуу Гиап, директор BShield, предлагающей решения в области безопасности приложений, отмечает, что создание фальшивых изображений и голосов сегодня не составляет труда благодаря прогрессам в технологии искусственного интеллекта. Преступники могут легко собирать данные пользователей, открыто распространенные в социальных сетях или через обманные тактики, такие как онлайн собеседования на работу. Симуляции BShield показали, как мошенник может вставить существующее лицо с видеозвонка на фальшивый идентификационный документ, объединить его с рабочим телом, чтобы обмануть системы электронной верификации личности (eKYC), и быть признанным как реальное лицо.

С точки зрения пользователя, специалист по ИТ Нгуен Тхань Трунг из Хошимина высказывает свои опасения о том, насколько легко злоумышленники могут использовать искусственный интеллект, например, chatGPT, для генерации фишинговых электронных писем, имитирующих легитимную коммуникацию от банков или уважаемых организаций, иногда содержащих вредоносные вложения, направленные на компрометацию небдительного пользователь.

Privacy policy
Contact