Хакери злоупотребяват с моделите на изкуствен интелект за надсъвършени компютърни атаки: Инсайти от Microsoft

Големите технологични компании Microsoft и OpenAI наскоро разкриха тревожната тенденция, при която хакери злоупотребяват със сложни езикови модели, за да засилят своите компютърни атаки. Докато киберпрестъпни колективи и хакери, подкрепени от държавата, активно изследват потенциала на новите технологии за изкуствен интелект, Microsoft и OpenAI провеждат изследвания, за да разкрият този нарастващ проблем.

В съвместните си усилия Microsoft и OpenAI разкриха как различни хакерски групи, свързани с Русия, Северна Корея, Иран и Китай, използват инструменти като ChatGPT, за да изработят своите стратегии за нападение. Ноторната група Стронтиум, известна също като APT28 или Fancy Bear и свързана с руската военна разузнавателна служба, използва езикови модели (LLM-ове) за анализиране на протоколите за сателитна комуникация и технологиите за радарни изображения, както и за извършване на основни задачи като манипулация с файлове.

Подобно на това, севернокорейската хакерска групировка с името Талиум използва LLM-ове за откриване на уязвимости, организиране на фишинг кампании и усъвършенстване на злонамерени скриптове. Иранската група Кюриум е започнала да използва LLM-ове, за да създава изтънчени фишинг имейли и код, който може да избегне антивирусни програми. Китайските хакери, свързани с държавата, също използват LLM-ове за изследвания, скриптиране, преводи и усъвършенстване на съществуващи киберинструменти.

Въпреки че все още не са наблюдавани големи компютърни атаки, използващи LLM-ове, Microsoft и OpenAI остават нащрек в демонтажа на профили и активи, свързани с тези злонамерени групи. Изследванията, провеждани от тези технологични гиганти, служат като важна разкривателна заповед за първоначалните стъпки, предприети от известни киберугрози, като същевременно разкриват и защитните мерки, прилагани за борба с тях.

С нарастващата загриженост относно злоупотребата на изкуствения интелект в кибервоенната дейност Microsoft предупреждава за бъдещи заплахи, като например сглобяването на глас. Напредъкът в измамата, основана на изкуствен интелект, по-конкретно във възпроизвеждането на глас, представлява значителен риск, тъй като дори кратки примери на глас могат да се използват за създаване на убедителни имитации.

В отговор на тези нарастващи киберзаплахи, предизвикани от изкуствения интелект, Microsoft използва AI като защитно средство. Чрез използване на изкуствения интелект за засилване на защитните мерки, повишаване на способностите за откриване и бързо реагиране на нововъзникващи заплахи, Microsoft има за цел да се бори с повишената съвършенство на атаките, представени от противниците. Освен това Microsoft представя Security Copilot, изкуствен интелект, предназначен да улесни идентифицирането и анализа на нарушенията за професионалистите в киберсигурността. Компанията също така предприема обширни препрограмиране на софтуера за сигурността след скорошни кибернарушения в облака Azure и случаи на шпионаж от руски хакери, насочен към ръководители на Microsoft.

С помощта на своите активни действия и познания Microsoft е решена да подпомогне защитната общност в тази непрекъсната битка с киберпрестъпността.

Често задавани въпроси:

1. Каква е тревожната тенденция, свързана с компютърните атаки, спомената в статията?
Microsoft и OpenAI разкриха, че хакери злоупотребяват със сложни езикови модели, за да засилят своите компютърни атаки.

2. Кои хакерски групи се споменават в статията?
Споменати са хакерски групи, свързани с Русия (Стронтиум/APT28/Fancy Bear), Северна Корея (Талиум), Иран (Кюриум) и Китай, които използват езикови модели, за да подобрят своите стратегии за атака.

3. Как Стронтиум групата е използвала езикови модели?
Групата Стронтиум е използвала езикови модели, за да анализира протоколите за сателитна комуникация и технологиите за радарни изображения, както и за изпълнение на основни задачи като манипулация с файлове.

4. Как се е използвала езиковата модел на неокорейската хакерска групировка Талиум?
Талиум използва езикови модели, за да открие уязвимости, организира фишинг кампании и подобрява злонамерени скриптове.

5. Каква е целта на иранската група Кюриум при използването на езикови модели?
Кюриум е започнала да използва езикови модели, за да създава изтънчени фишинг имейли и код, които да избегнат антивирусни програми.

6. Как използват китайските хакери, свързани с държавата, езикови модели?
Китайските хакери използват езикови модели за изследвания, скриптиране, преводи и подобряване на съществуващите киберинструменти.

7. Какви защитни мерки предприемат Microsoft и OpenAI срещу тези злонамерени групи?
Microsoft и OpenAI разрушават профили и активи, свързани със злонамерените групи. Те продължават да бъдат нащрек в борбата с киберзаплахите.

8. Освен сглобяването на глас, за какви други бъдещи заплахи, свързани с изкуствения интелект, предупреждава Microsoft?
Microsoft предупреждава за развитието на измама, основана на изкуствен интелект, във възпроизвеждането на глас и риска от убедителни имитации, използвайки кратки примери на глас.

9. Как използва Microsoft изкуствения интелект като защитно средство срещу киберзаплахите?
Microsoft използва изкуствения интелект, за да усилва защитните мерки, подобрява способностите за откриване и бързо реагиране на нововъзникващи заплахи. Те също така въвеждат Security Copilot, изкуствен интелект, предназначен за идентифициране и анализ на нарушенията за професионалисти в киберсигурността.

10. Какви стъпки предприема Microsoft, за да подобри сигурността на софтуера?
Microsoft предприема обширни препрограмиране на софтуера за сигурността след скорошни кибернарушения в облака Azure и случаи на шпионаж от руски хакери, насочен към ръководители на Microsoft.

Дефиниции:
– Езикови модели (LLM-ове): Напреднали технологии на изкуствения интелект, използвани от хакери за усъвършенстване на стратегиите за атака, анализиране на протоколи, изпълнение на скриптове и създаване на фишинг имейли.
– Възпроизвеждане на глас: Изкуственот

The source of the article is from the blog krama.net

Privacy policy
Contact