Противниците разширяват кибер атаките с помощта на изкуствен интелект: Нова ера на заплахи

Microsoft скоро разкри, че страни като Иран и Северна Корея, а по-малка степен и Русия и Китай, използват генеративен изкуствен интелект (ИИ) за организиране на кибер атаки. Въпреки че използваните техники може да не са особено новаторски, разкриването им е от съществено значение, тъй като имат потенциал да проникнат в мрежите и да манипулират информацията. С появата на големи езикови модели, като ChatGPT на OpenAI, играта на котка и мишка между фирмите за киберсигурност и хакерите вече е в нова фаза.

Партньорството на Microsoft с OpenAI, заедно със съвместните им усилия за откриване и прекъсване на заплахите, свързани с ИИ, озарява развиващата се картинa на кибер войната. Възможността на генеративния ИИ да подобри злонамереното социално инженерство бива призната като ясна заплаха за демократичните процеси, особено като се има предвид, че над 50 държави имат предстоящи избори тази година.

Примерите, предоставени от Microsoft, показват разнообразните начини, по които различни противнически групи използват ИИ. Севернокорейската кибершпионска група Kimsuky използва големите езикови модели за проучване на чуждестранни мисловни центрове и генериране на съдържание за кампании за рибарене с пружина. Иранската революционна гвардия използва техники на ИИ за социално инженерство, отстраняване на проблеми в софтуера и изготвяне на фалшиви имейли, с които да заблудят жертвите. Групата за кибершпионаж на руската военна разузнавателна служба GRU, Fancy Bear, изследва военни технологии свързани с конфликти като войната в Украйна. Освен това, кибершпионските групи Aquatic Panda и Maverick Panda от Китай също са използвали генеративния ИИ, за да подобрят техническите си операции и да събират информация по различни чувствителни теми.

Въпреки че OpenAI заявява, че неговият модел GPT-4 в момента предлага ограничени възможности за злонамерени задачи в киберсигурността, експертите предсказват, че това ще се промени в близкото бъдеще. Възможната мощ на ИИ и големите езикови модели като офанзивни инструменти внасят тревога сред професионалистите по киберсигурност и политиците. Установяването на сигурността и отговорното развитие на ИИ технологиите стават неотложни.

Докато светът се бори с нарастващата роля на ИИ в различни области, включително националната сигурност, става критично за държавите да преоценят подхода си към развитието на ИИ. Осигуряването на гръбнакови функции за сигурност на ИИ трябва да бъде приоритет, за да се намали риска от неговата зловредна употреба. Поради значителните предизвикателства, представени от ИИ, сътрудничеството между технологичните компании, правителствата и изследователите става още по-задължително за построяването на по-сигурно цифрово бъдеще.

Често задавани въпроси

1. Кои държави използват генеративния изкуствен интелект (ИИ) за офанзивни кибер атаки?
– Microsoft съобщи, че държави като Иран и Северна Корея, и в по-малка степен Русия и Китай, използват генеративния ИИ за офанзивни кибер атаки.

2. Защо е от съществено значение да се разкрият техниките, използвани в офанзивния ИИ?
– Разкриването на тези техники е от съществено значение, тъй като те имат потенциал да проникнат в мрежите и да манипулират информацията, което представлява заплаха за демократичните процеси.

3. Каква е връзката между Microsoft и OpenAI?
– Microsoft има партньорство с OpenAI и съвместно работят за откриване и прекъсване на заплахите, свързани с ИИ.

4. Как групите противници използват генеративния ИИ?
– Предоставените от Microsoft примери показват, че противническите групи използват генеративния ИИ за провеждане на изследвания, генериране на съдържание за кампании за рибарене с пружина, социално инженерство, отстраняване на проблеми в софтуера, изготвяне на фалшиви имейли, разследване на военни технологии и събиране на информация по чувствителни теми.

5. Предлага ли моделът GPT-4 на OpenAI възможности за злонамерени задачи в киберсигурността?
– OpenAI заявява, че неговият модел GPT-4 в момента предлага ограничени възможности за злонамерени задачи в киберсигурността, но експертите предвиждат, че това може да се промени в бъдеще.

Ключови термини и жаргон

– Генеративен изкуствен интелект (ИИ): Това се отнася до ИИ системи, които са способни да създават ново съдържание, като текст, изображения или видео, базирани на модели и примери, които са научили от съществуващи данни.

– Офанзивни кибер атаки: Това са кибер атаки, които се извършват с цел проникване в мрежи, манипулиране на информация или причиняване на вреди на целевия обект.

– Кампании за рибарене с пружина: Това са насочени кампании за рибарене, при които нападателите персонализират подхода си, за да заблудят конкретни лица или организации да разкрият чувствителна информация или извършат определени действия.

– Социално инженерство: Това е техника, използвана за манипулиране на хора, за да разкрият чувствителна информация или извършат действия, които могат да бъдат противни за тяхното благо.

– Злонамерени задачи в киберсигурността: Това са дейности, извършвани с цел да се използват уязвимости, да се проникне в сигурностните системи или да се причини вреда на компютърни мрежи или лица.

Предложени свързани връзки

– Microsoft

The source of the article is from the blog macnifico.pt

Privacy policy
Contact