Използването на изкуствен интелект става оръжие в кибер арсенала на противниците

Майкрософт недавно разкри, че изкуственият интелект (AI) все повече се използва от американските противници, по-конкретно Иран, Северна Корея, Русия и Китай, за извършване на афанзивни кибер операции. Тези държави започнаха да използват силата на AI технологиите, за да организират атаки, което представлява значителна промяна в киберсигурността. Въпреки че този напредък не е напълно изненадващ, Майкрософт осъзнава важността да повиши осведомеността за тези нови техники.

Съвместно с OpenAI, създателите на ChatGPT, Майкрософт активно открива и блокира тези заплахи, предизвикани от изкуствения интелект. Партньорството между двете организации съответства на ангажимента на Майкрософт към напреднали изследвания в областта на изкуствения интелект и борбата с новите кибер заплахи. Въпреки това, компанията подчертава, че използването на изкуствения интелект в атаките кибер операции не е нов концепт и е прието както от злонамерени действия, така и от компаниите, осигуряващи киберсигурност.

Традиционно машинното обучение предимно се използва от компаниите за киберсигурност, за да открият подозрителни дейности в мрежите. Въпреки това кибер престъпниците и хакерите също са приели тази технология в своята полза. С въвеждането на големи езикови модели като ChatGPT, играта на котка и мишка в областта на киберсигурността става по-сложна.

Докладът на Майкрософт за потенциалното влияние на генеративния AI върху злонамерена социална инженерия идва в критичен момент. С повече от 50 страни да провеждат избори тази година, заплахата от дезинформация е голяма. Развитието на deepfake технологиите и клонирането на гласове допълнително влошава това безпокойство. С развитието на изкуствения интелект е от съществено значение да се разгледат прозрачността и етичните аспекти, свързани с неговото използване в кибер операциите.

Майкрософт предоставя конкретни примери за начините, по които съвместната работа с OpenAI е открила и парализирала заплахите, задвижвани от изкуствен интелект. В случая с кибершпионската група Kimsuky на Северна Корея са използвани модели на генеративен AI, за да се събира информация за мисловни центрове в чужбина и да се създават съдържание за компании, специално целеви за нападение. Например военната групировка на Иран използва големи модели на езика, за да подобри тактиките си за социална инженерия, да решава проблеми със софтуера и да изучава начини за избягване на откриване в компрометирани мрежи.

Също така руското разузнаване Fancy Bear и китайските хакерски групи Aquatic Panda и Maverick Panda са работили с AI модели, за да подобрят техническите си операции, включително изследване на сателитни технологии и оценка на ефективността на AI моделите като източник на чувствителна информация.

Тъй като AI продължава да се развива, е съществено за организациите като Майкрософт и OpenAI да останат бдителни и превантивни в откриването и справянето се с заплахите, предизвикани от AI. Тази продължителна битка подчертава необходимостта от непрекъснати изследвания, сътрудничество и прозрачност в променящата се среда на киберсигурността.

The source of the article is from the blog qhubo.com.ni

Privacy policy
Contact