Май 2024 года: появление искусственного интеллекта следующего поколения увеличивает кибербезопасность

Раскрытие передовых версий искусственного интеллекта крупными мировыми технологическими компаниями, такими как GPT-4o от OpenAI и Gemini 1.5 Pro от Google в мае 2024 года, отметило значительный скачок в развитии умных функций, направленных на оптимизацию пользовательских возможностей. Однако вместе с этими достижениями возрастает количество сценариев онлайн-мошенничества.

Экспоненциальный рост киберугроз

На недавнем семинаре вьетнамский заместитель министра информации и связи, Фам Дук Лонг, обсудил постоянное увеличение инцидентов кибератак, которые становятся более сложными и расплывчатыми. Этот рост, поддерживаемый ИИ, увеличивает потенциальные угрозы, с которыми сталкиваются пользователи, позволяя преступникам легко создавать новые вредоносные программы и хитроумные мошеннические схемы.

Отчет Национального агентства кибербезопасности подчеркнул высокую стоимость киберрисков, связанных с ИИ, превышающую 1 триллион долларов США по всему миру. Вьетнам один лишь потерпел финансовые потери на сумму от 8 000 до 10 000 миллиардов VND. В настоящее время увеличивается использование ИИ для подражания голосам и лицам с целью осуществления мошенничества.

Прогнозы предсказывают, что к 2025 году количество кибератак может достигнуть 3 000 в секунду, при этом появится 12 новых видов вредоносных программ и 70 уязвимостей ежедневно.

Расширение технологии дипфейков в криминальных арсеналах

Нгуен Хуу Джиап, директор BShield, предлагающий решения по безопасности для приложений, отмечает, что создание фальшивых изображений и голосов не составляет труда с современными достижениями технологий искусственного интеллекта. Преступники могут легко добывать данные пользователей, открыто распространяемые в социальных медиа или с помощью провокационных тактик, таких как онлайн-собеседования. Симуляции BShield показали, как мошенник мог бы вставить существующее лицо из видеозвонка в фальшивый идентификационный документ, объединить его с функционирующим телом, чтобы обмануть системы электронной идентификации и быть признанным как реальное лицо.

С позиции пользователя специалист по ИТ Нгуен Тань Трунг из Хошиминского города высказывает свои опасения по поводу легкости с которой злоумышленники могут использовать ИИ, например, chatGPT, для генерации фишинговых электронных писем, имитирующих легитимную коммуникацию от банков или авторитетных организаций, иногда содержащих вредные программные вложения, нацеленные на компрометацию недальновидного кликера.

The source of the article is from the blog agogs.sk

Privacy policy
Contact