Хакеры используют модели искусственного интеллекта для продвинутых кибератак: исследование, проведенное Microsoft

Технологические гиганты Microsoft и OpenAI недавно раскрыли тревожную тенденцию хакеров, которые используют передовые языковые модели для усиления своих кибератак. В то время как киберпреступные синдикаты и государственные хакеры активно изучали потенциальные применения новых технологий искусственного интеллекта, Microsoft и OpenAI провели исследование, чтобы пролить свет на эту нарастающую проблему.

В своих совместных усилиях Microsoft и OpenAI раскрыли, как различные хакерские группировки, связанные с Россией, Северной Кореей, Ираном и Китаем, использовали инструменты, такие как ChatGPT, для совершенствования своих стратегий атаки. Печально известная группировка Стронций, также известная как APT28 или Fancy Bear, связанная с российским военным разведывательным управлением, использовала языковые модели (LLM) для анализа протоколов спутниковой связи и радиолокационных технологий, а также для выполнения базовых задач скриптования, таких как манипуляции файлами.

Аналогично, северокорейская хакерская группировка под названием Таллиум использует LLM для поиска уязвимостей, организации фишинговых кампаний и улучшения вредоносных скриптов. Иранская группировка Кьюриум обратилась к LLM для создания сложных фишинговых электронных писем и кода, способного обходить антивирусное программное обеспечение. Государственные хакеры Китая также используют LLM для исследований, скриптования, переводов и усовершенствования существующих киберинструментов.

Хотя пока не наблюдалось масштабных кибератак, использующих LLM, Microsoft и OpenAI остаются бдительными в разрушении учетных записей и активов, связанных с этими злонамеренными группами. Проведенное технологическими гигантами исследование является важным обнаружением предварительных шагов, предпринимаемых известными акторами угроз, а также проливает свет на принятые оборонительные меры для их противодействия.

В связи со все возрастающей озабоченностью использования искусственного интеллекта в кибервойне, Microsoft предупреждает о будущих угрозах, таких как голосовая подмена. Продвижение мошенничества, особенно в сфере синтеза голоса, на базе искусственного интеллекта представляет значительные риски, позволяя создавать убедительные подделки даже на основе краткого голосового образца.

В ответ на эти нарастающие киберугрозы, основанные на искусственном интеллекте, Microsoft использует искусственный интеллект в качестве защитного инструмента. Используя искусственный интеллект для укрепления мер защиты, улучшения возможностей обнаружения и быстрого реагирования на появляющиеся угрозы, Microsoft стремится противостоять повышенной сложности атак со стороны противников. Кроме того, Microsoft представляет Security Copilot — искусственный интеллект-ассистент, предназначенный для упрощения идентификации и анализа нарушений для специалистов по кибербезопасности. Компания также проводит всеобъемлющую модернизацию безопасности программного обеспечения в связи с недавними проникновениями в облачную платформу Azure и случаями шпионажа со стороны российских хакеров, нацеленных на руководителей Microsoft.

Благодаря своим активным мерам и познаниям, Microsoft стремится укрепить сообщество защитников в этой непрерывной борьбе против киберпреступности.

Часто задаваемые вопросы:

1. Какая тревожная тенденция в отношении кибератак упоминается в статье?
Microsoft и OpenAI раскрыли, что хакеры используют передовые языковые модели для усиления своих кибератак.

2. Какие хакерские группы упоминаются в статье?
Говорится о хакерских группировках, связанных с Россией (Стронций/APT28/Fancy Bear), Северной Кореей (Таллиум), Ираном (Кьюриум) и Китаем, которые используют языковые модели для усовершенствования своих стратегий атаки.

3. Как группировка Стронций использовала языковые модели?
Группировка Стронций использовала языковые модели для анализа протоколов спутниковой связи и радиолокационных технологий, а также для выполнения базовых задач скриптования, таких как манипуляции файлами.

4. Как северокорейская хакерская группировка Таллиум использовала языковые модели?
Таллиум использовала языковые модели для поиска уязвимостей, организации фишинговых кампаний и улучшения своих вредоносных скриптов.

5. Какую цель преследует иранская группировка Кьюриум с использованием языковых моделей?
Кьюриум обратилась к языковым моделям для создания сложных фишинговых электронных писем и кода, способного обойти антивирусное программное обеспечение.

6. Как государственные хакеры Китая используют языковые модели?
Китайские хакеры используют языковые модели для исследований, скриптования, переводов и усовершенствования существующих киберинструментов.

7. Какие меры обороны предпринимает Microsoft и OpenAI в отношении этих злонамеренных групп?
Microsoft и OpenAI распускают учетные записи и активы, связанные с злонамеренными группами. Они остаются бдительными в борьбе с киберугрозами.

8. Кроме голосовой подмены, о каких будущих угрозах, основанных на искусственном интеллекте, предупреждает Microsoft?
Microsoft предупреждает о развитии мошенничества, основанного на искусственном интеллекте, в голосовом синтезе и о рисках создания убедительных подделок на основе кратких голосовых образцов.

9. Как Microsoft использует искусственный интеллект в качестве защитного инструмента против киберугроз?
Microsoft использует искусственный интеллект для укрепления мер защиты, улучшения возможностей обнаружения и быстрого реагирования на появляющиеся угрозы. Введен Security Copilot — искусственный интеллект-ассистент для идентификации и анализа нарушений.

10. Какие шаги предпринимает Microsoft для улучшения безопасности программного обеспечения?
Microsoft проводит всеобъемлющую модернизацию безопасности программного обеспечения после недавних проникновений в облачную платформу Azure и случаев шпионажа со стороны российских хакеров, нацеленных на руководителей Microsoft.

Определения:
— Языковые модели (LLMs): передовые технологии искусственного интеллекта, используемые хакерами для совершенствования стратегий атаки, анализа протоколов, выполнения скриптовых задач и создания фишинговых электронных писем.
— Голосовой синтез: искусственное производство человеческой речи с использованием технологии искусственного интеллекта.
— Фишинг: кибератака, при которой злоумышленники обманывают людей, чтобы получить конфиденциальную информацию, такую как пароли или номера кредитных карт, выдавая себя за надежное лицо.

Предлагаемые связанные ссылки:
— Официальный сайт Microsoft
— Официальный сайт OpenAI

[внешний_ресурс]https://www.youtube.com/watch?v=4QzBdeUQ0Dc[/внешний_ресурс]

The source of the article is from the blog queerfeed.com.br

Privacy policy
Contact