Vectra AI засилва киберсигурността със защита от напреднали атаки върху Microsoft Copilot.

Vectra AI, Inc., водеща компания в разработката на решения за разширено откриване и реакция (XDR), разшири своята платформа, за да защити бизнесите от заплахите, представени от бързо развиващите се генеративни AI инструменти. Със своята специална Attack Signal Intelligence™, Vectra използва базирана на поведение изкуствена интелигентност, за да предотврати кибератаки, използващи генеративни AI (GenAI). Този напредък осигурява на екипите в Центъра за операции за сигурност (SOC) възможност да се справят с атаки от GenAI, използвайки методи на AI.

Под ръководството на Хитеш Шет, Президент и Изпълнителен директор, Vectra AI е пионер в приложението на AI за борба със сложни и възникващи киберзаплахи в продължение на повече от десетилетие. С нарастващото интегриране на инструменти на GenAI като Microsoft Copilot за подобряване на продуктивността на персонала и оптимизиране на процесите, компаниите неразсъдно разширяват своите уязвимости към атаки. Тези инструменти предоставят на атакуващите бързи средства за експлоатация на идентичности за мащабни нарушения.

Предвид новите уязвимости, представени от технологиите на генеративните AI, СОЦ-овете трябва също да използват AI, за да се защитят срещу сложни кибератаки. Платформата на Vectra използва AI и машинно обучение (ML), за да открива заплахи в различни вектори, включително мрежи, идентичности, облак, SaaS и GenAI. Attack Signal Intelligence на платформата умело идентифицира, корелира и определя приоритети на заплахите, което позволява на анализаторите в SOC бързо да изолират и намалят реални атаки.

Най-новите актуализации на платформата на Vectra AI вече позволяват откриването на опоненти, които експлоатират идентичности и използват Microsoft Copilot за M365, за да операционизират атаки. Тези подобрения включват:

– Специфични откривания за атаки, базирани на GenAI, насочени към Microsoft Copilot.
– Корелация на откриванията за GenAI с идентичности в Microsoft Entra ID, Microsoft 365, AWS и Active Directory.
– Приоритизиране на откриванията за Microsoft Copilot GenAI заедно с откривания в мрежата (Vectra NDR), идентичности (Vectra ITDR) и облак (Vectra CDR).
– Интеграция на метаданни от различни атакуеми повърхности за незабавни и всеобхватни разследвания.
– Вродени, автоматизирани реактивни действия за блокиране на хостове и акаунти, участвали в атаките.

Джеф Рийд, Главен продуктов директор на Vectra AI, подчерта, че над 40% от клиентела на тяхното решение за атаки на идентичности в момента вземат в употреба Microsoft Copilot за M365. Този нов подобрен елемент на платформата на Vectra AI предоставя на защитниците в SOC ценни инструменти за сигурност на идентичностите и разкриване на атаки от GenAI.

Генеративните AI технологии като Microsoft Copilot представят двустранен меч; те могат да значително подобрят продуктивността, но също така представят значителни киберсигурностни предизвикателства. Ето някои факти, въпроси, отговори, ключови предизвикателства, контроверзии и предимства и недостатъци, свързани с темата:

Свързани факти:
– Copilot на Microsoft е една от практичните реализации на генеративен AI на работното място.
– Киберсигурностните заплахи са еволюират с технологиите, приспособявайки се, за да се възползват от новите системи и инструменти, включително генеративни AI.
– Офлайн мерките за киберсигурност вече не са достатъчни; компаниите се нуждаят от динамично, непрекъснато наблюдение и защитни механизми.
– Интегрирането на AI в киберсигурността е необходимо, за да се следи едновременно с киберзаплахите, подпомогнати от AI.

Важни въпроси и отговори:
Q: Какви са генеративните AI атаки?
A: Генеративните AI атаки могат включват използване на AI инструменти за създаване на фалшиви имейли или реалистично фалшиво съдържание, за да заблудят хора или системи, което завършва с неоторизиран достъп или нарушения на данните.

Q: Как решението на Vectra AI разграничава лицитното от злонамерено поведение на AI?
A: Vectra AI използва базирана на поведение AI с усъвършенствани алгоритми, които анализират модели и аномалии, указващи на атака, а не на нормални операции.

Ключови предизвикателства:
– Справяне с темпото на напредъка на AI и машинното обучение, използвани от злонамерени действащи лица.
– Уверяване, че възможностите за откриване са достатъчно сложни и нюансирани, за да не произведат лъжливи положителни резултати, което може да наруши производителността.
– Балансиране на мерките за безопасност с регулациите за защита на личните данни и човешката неприкосновеност.

Контроверзии:
– Дебатът за надеждността на AI за целите на сигурността спротивно на потенциалните рискове от компрометиране на самата AI.
– Напрежение между иновациите в AI и закъснелото развитие на здрави киберсигурностни мерки, изпълняващи ги.

Предимства:
– Възможностите за откриване, управлявани от AI на Vectra, могат да предоставят ефективно откриване на заплахи в реално време.
– Увеличената автоматизация и интеграция на киберсигурностните защити могат да намалят тежестта върху СОЦ-овете.
– Анализът, базиран на поведение, може да намали времето за откриване и ограничаване на атаките.

Недостатъци:
– Прекомерната зависимост от AI може да създаде лъжливо усещане за сигурност, ако не се комбинира с други киберсигурни политики и процедури.
– Възможният риск AI да бъде компрометиран или използван злонамерено.
– Предизвикателства при запазването на ученето на AI и моделите за откриване актуални с новите заплахи.

За бизнесите е от съществено значение да постигнат баланс между използването на AI за печалба от продуктивността и управлението на киберсигурностните рискове, които представя. Като част от текущите стратегии по киберсигурност, организациите следва внимателно да обмислят решенията, които въвеждат, като разширената платформа на Vectra AI, за адаптивен и устойчив подход за защита срещу заплахи в променящата се цифрова среда.

Можете да научите повече за киберсигурността и генеративното AI, като посетите уебсайта на Vectra AI на Vectra AI.

The source of the article is from the blog enp.gr

Privacy policy
Contact