Хакери використовують моделі штучного інтелекту для складніших кібератак: інсайти від Microsoft

Технологічні гіганти Microsoft і OpenAI нещодавно розкрили тривожну тенденцію, пов’язану з тим, як хакери використовують високотехнологічні мовні моделі для посилення своїх кібернападів. Хоча кіберзлочинні синдикати і державні загрозливі актори активно досліджують можливості новітніх технологій штучного інтелекту, Microsoft і OpenAI провели дослідження, щоб пролити світло на цю зростаючу проблему.

У спільних зусиллях Microsoft і OpenAI було розкрито, як різні хакерські групи, пов’язані з Росією, Північною Кореєю, Іраном і Китаєм, використовують інструменти, такі як ChatGPT, для вдосконалення своїх стратегій атаки. Світово відома група Стронцій, також відома як APT28 або Fancy Bear, яка пов’язана з військовою розвідкою Росії, використовує мовні моделі (лінгвомоделі) для аналізу протоколів супутникового зв’язку і технологій радіолокації, а також для виконання простих скриптових завдань, таких як маніпулювання файлами.

Аналогічно Північнокорейська хакерська група з назвою Таліум використовує мовні моделі для виявлення вразливостей, організації фішингових кампаній і вдосконалення зловмисних скриптів. Група іранських хакерів Curium звернулась до мовних моделей для створення складних фішингових електронних листів та коду, який може уникнути антивірусного програмного забезпечення. Державні хакери Китаю також використовують мовні моделі для досліджень, написання скриптів, перекладів та вдосконалення наявних кіберінструментів.

Хоча поки не зафіксовано значних кібератак, використовуючи мовні моделі, Microsoft і OpenAI залишаються насторожі щодо ліквідації облікових записів і активів, пов’язаних з цими зловмисними групами. Дослідження, проведені цими технологічними гігантами, є важливим відкриттям початкових кроків відомих загрозливих акторів, а також розкривають захисні заходи, які приймаються для їх утримання.

З ростом обурення щодо зловживання штучним інтелектом у кібервійні, Microsoft попереджає про майбутні загрози, такі як підробка голосу. Розвиток шахрайства на основі штучного інтелекту, зокрема у синтезі голосу, створює значний ризик, що дозволяє створювати переконливі підробки, використовуючи навіть короткі зразки голосу.

У відповідь на ці наростаючі кіберзагрози, пов’язані зі штучним інтелектом, Microsoft використовує його як засіб оборони. Використовуючи штучний інтелект для посилення захисних заходів, покращення можливостей виявлення і швидкої реакції на нові загрози, Microsoft має на меті боротьбу з надзвичайною складністю атак, які представляють загрозу з боку противників. Крім цього, Microsoft представляє Security Copilot, асистента на основі штучного інтелекту, призначеного для спрощення ідентифікації та аналізу порушень для фахівців з кібербезпеки. Компанія також проводить комплексну переробку програмного забезпечення з метою покращення безпеки після останніх вторгнень у хмару Azure та випадків шпигунства з боку російських хакерів, націлених на керівництво Microsoft.

Завдяки своїм проактивним заходам і усвідомленню ситуації, Microsoft намірена зміцнити оборонний потенціал в цій непростій боротьбі з кіберзлочином.

Часті питання:

1. Яку тривожну тенденцію пов’язану з кібератаками згадується в статті?
Microsoft і OpenAI розкрили, що хакери використовують високотехнологічні мовні моделі для посилення своїх кібератак.

2. Які хакерські групи згадуються в статті?
Були згадані хакерські групи, пов’язані з Росією (Стронцій/APT28/Fancy Bear), Північною Кореєю (Таліум), Іраном (Curium) і Китаєм, які використовують мовні моделі для покращення своїх стратегій атаки.

3. Як Стронцій група використовує мовні моделі?
Група Стронцій використовує мовні моделі для аналізу протоколів супутникового зв’язку і технологій радіолокації, а також для виконання простих скриптових завдань, таких як маніпулювання файлами.

4. Як Таліум, північнокорейська хакерська група, використовує мовні моделі?
Таліум використовує мовні моделі для виявлення вразливостей, організації фішингових кампаній і покращення зловмисних скриптів.

5. Яку мету ставить перед собою іранська група Curium, використовуючи мовні моделі?
Група Curium зверталася до мовних моделей для створення складних фішингових електронних листів та кодів, які можуть уникнути антивірусного програмного забезпечення.

6. Чим китайські державні хакери використовують мовні моделі?
Китайські хакери використовують мовні моделі для дослідження, скриптування, перекладів та покращення наявних кіберінструментів.

7. Які заходи безпеки вживаються Microsoft і OpenAI проти цих зловмисних груп?
Microsoft і OpenAI ліквідовують облікові записи і активи, пов’язані з зловмисними групами. Вони залишаються насторожі щодо протидії кіберзагрозам.

8. Окрім підробки голосу, про які інші майбутні загрози, пов’язані зі штучним інтелектом, попереджає Microsoft?
Microsoft попереджає про розвиток шахрайства на основі штучного інтелекту у синтезі голосу і ризик переконливих підробок за допомогою коротких зразків голосу.

9. Як Microsoft використовує штучний інтелект як засіб оборони проти кіберзагроз?
Microsoft використовує штучний інтелект для посилення захисних заходів, покращення можливостей виявлення та швидкої реакції на нові загрози. Вони також представляють Security Copilot, асистента на основі штучного інтелекту для ідентифікації та аналізу вторгнень.

10. Які заходи вживає Microsoft для покращення безпеки програмного забезпечення?
Після останніх вторгнень у х

The source of the article is from the blog lokale-komercyjne.pl

Privacy policy
Contact