Технологические гиганты Microsoft и OpenAI недавно раскрыли тревожную тенденцию хакеров, которые используют передовые языковые модели для усиления своих кибератак. В то время как киберпреступные синдикаты и государственные хакеры активно изучали потенциальные применения новых технологий искусственного интеллекта, Microsoft и OpenAI провели исследование, чтобы пролить свет на эту нарастающую проблему.
В своих совместных усилиях Microsoft и OpenAI раскрыли, как различные хакерские группировки, связанные с Россией, Северной Кореей, Ираном и Китаем, использовали инструменты, такие как ChatGPT, для совершенствования своих стратегий атаки. Печально известная группировка Стронций, также известная как APT28 или Fancy Bear, связанная с российским военным разведывательным управлением, использовала языковые модели (LLM) для анализа протоколов спутниковой связи и радиолокационных технологий, а также для выполнения базовых задач скриптования, таких как манипуляции файлами.
Аналогично, северокорейская хакерская группировка под названием Таллиум использует LLM для поиска уязвимостей, организации фишинговых кампаний и улучшения вредоносных скриптов. Иранская группировка Кьюриум обратилась к LLM для создания сложных фишинговых электронных писем и кода, способного обходить антивирусное программное обеспечение. Государственные хакеры Китая также используют LLM для исследований, скриптования, переводов и усовершенствования существующих киберинструментов.
Хотя пока не наблюдалось масштабных кибератак, использующих LLM, Microsoft и OpenAI остаются бдительными в разрушении учетных записей и активов, связанных с этими злонамеренными группами. Проведенное технологическими гигантами исследование является важным обнаружением предварительных шагов, предпринимаемых известными акторами угроз, а также проливает свет на принятые оборонительные меры для их противодействия.
В связи со все возрастающей озабоченностью использования искусственного интеллекта в кибервойне, Microsoft предупреждает о будущих угрозах, таких как голосовая подмена. Продвижение мошенничества, особенно в сфере синтеза голоса, на базе искусственного интеллекта представляет значительные риски, позволяя создавать убедительные подделки даже на основе краткого голосового образца.
В ответ на эти нарастающие киберугрозы, основанные на искусственном интеллекте, Microsoft использует искусственный интеллект в качестве защитного инструмента. Используя искусственный интеллект для укрепления мер защиты, улучшения возможностей обнаружения и быстрого реагирования на появляющиеся угрозы, Microsoft стремится противостоять повышенной сложности атак со стороны противников. Кроме того, Microsoft представляет Security Copilot — искусственный интеллект-ассистент, предназначенный для упрощения идентификации и анализа нарушений для специалистов по кибербезопасности. Компания также проводит всеобъемлющую модернизацию безопасности программного обеспечения в связи с недавними проникновениями в облачную платформу Azure и случаями шпионажа со стороны российских хакеров, нацеленных на руководителей Microsoft.
Благодаря своим активным мерам и познаниям, Microsoft стремится укрепить сообщество защитников в этой непрерывной борьбе против киберпреступности.
Часто задаваемые вопросы:
1. Какая тревожная тенденция в отношении кибератак упоминается в статье?
Microsoft и OpenAI раскрыли, что хакеры используют передовые языковые модели для усиления своих кибератак.
2. Какие хакерские группы упоминаются в статье?
Говорится о хакерских группировках, связанных с Россией (Стронций/APT28/Fancy Bear), Северной Кореей (Таллиум), Ираном (Кьюриум) и Китаем, которые используют языковые модели для усовершенствования своих стратегий атаки.
3. Как группировка Стронций использовала языковые модели?
Группировка Стронций использовала языковые модели для анализа протоколов спутниковой связи и радиолокационных технологий, а также для выполнения базовых задач скриптования, таких как манипуляции файлами.
4. Как северокорейская хакерская группировка Таллиум использовала языковые модели?
Таллиум использовала языковые модели для поиска уязвимостей, организации фишинговых кампаний и улучшения своих вредоносных скриптов.
5. Какую цель преследует иранская группировка Кьюриум с использованием языковых моделей?
Кьюриум обратилась к языковым моделям для создания сложных фишинговых электронных писем и кода, способного обойти антивирусное программное обеспечение.
6. Как государственные хакеры Китая используют языковые модели?
Китайские хакеры используют языковые модели для исследований, скриптования, переводов и усовершенствования существующих киберинструментов.
7. Какие меры обороны предпринимает Microsoft и OpenAI в отношении этих злонамеренных групп?
Microsoft и OpenAI распускают учетные записи и активы, связанные с злонамеренными группами. Они остаются бдительными в борьбе с киберугрозами.
8. Кроме голосовой подмены, о каких будущих угрозах, основанных на искусственном интеллекте, предупреждает Microsoft?
Microsoft предупреждает о развитии мошенничества, основанного на искусственном интеллекте, в голосовом синтезе и о рисках создания убедительных подделок на основе кратких голосовых образцов.
9. Как Microsoft использует искусственный интеллект в качестве защитного инструмента против киберугроз?
Microsoft использует искусственный интеллект для укрепления мер защиты, улучшения возможностей обнаружения и быстрого реагирования на появляющиеся угрозы. Введен Security Copilot — искусственный интеллект-ассистент для идентификации и анализа нарушений.
10. Какие шаги предпринимает Microsoft для улучшения безопасности программного обеспечения?
Microsoft проводит всеобъемлющую модернизацию безопасности программного обеспечения после недавних проникновений в облачную платформу Azure и случаев шпионажа со стороны российских хакеров, нацеленных на руководителей Microsoft.
Определения:
— Языковые модели (LLMs): передовые технологии искусственного интеллекта, используемые хакерами для совершенствования стратегий атаки, анализа протоколов, выполнения скриптовых задач и создания фишинговых электронных писем.
— Голосовой синтез: искусственное производство человеческой речи с использованием технологии искусственного интеллекта.
— Фишинг: кибератака, при которой злоумышленники обманывают людей, чтобы получить конфиденциальную информацию, такую как пароли или номера кредитных карт, выдавая себя за надежное лицо.
Предлагаемые связанные ссылки:
— Официальный сайт Microsoft
— Официальный сайт OpenAI
[внешний_ресурс]https://www.youtube.com/watch?v=4QzBdeUQ0Dc[/внешний_ресурс]
The source of the article is from the blog queerfeed.com.br