Vectra AI Pastiprina datordrošību ar uzlabotu atklāšanu Microsoft Copilot uzbrukumiem

Vectra AI, Inc., priekšējā uzņēmums paplašinātajās atklātās detektēšanas un reaģēšanas (XDR) risinājumos, ir paplašinājis savu platformu, lai aizsargātu uzņēmumus pret apdraudējumiem, ko rada strauji attīstošās radnieciskās AI rīka. Ar savu patentēto uzbrukuma signālu inteliģenci™, Vectra izmanto uzvedības pamatā balstītu AI, lai novērstu tīklu uzbrukumus, kurus izmanto radnieciskā AI (GenAI). Šī attīstība aprīko Drošības darbību centrus (SOC) komandas, lai pretinātos GenAI uzbrukumiem, izmantojot AI metodoloģijas.

Vadoties no Hitesha Shetha, Vectra AI prezidenta un CEO, vadības, Vectra AI jau vairāk nekā desmit gadus ir pionierējusi AI lietojumu, lai cīnītos pret sarežģītiem un jaunattīstības draudiem. Tā kā uzņēmumi arvien vairāk integrē GenAI rīkus, piemēram, Microsoft Copilot, lai uzlabotu personāla produktivitāti un optimizētu procesus, viņi nelikumīgi palielina savu ievainojamību pret uzbrukumiem. Šie rīki ļauj uzbrucējiem ātri izmantot identitātes plašo apmaiņu.

Lai gan radniecisko AI tehnoloģijas ievieš jaunas ievainojamības, SOCIem ir jāizmanto arī AI, lai aizsargātos pret sarežģītiem tīklu uzbrukumiem. Vectra platforma izmanto AI un mašīnmācību (ML), lai noteiktu apdraudējumus pa dažādiem vektoriem, ieskaitot tīklus, identitātes, mākoņus, SaaS un GenAI. Platformas uzbrukuma signālu inteliģence vieda identificē, saista un prioritizē draudus, ļaujot SOC analitiķiem uzreiz izolēt un mazināt reālus uzbrukumus.

Jaunākās atjauninājumi Vectra AI Platformā tagad ļauj atklāt pretiniekus, kas izmanto identitātes un uzbrūk Microsoft Copilot, lai veicinātu uzbrukumus. Šīs uzlabojumi ietver:

– Konkrētas atklāšanas GenAI uzbrukumiem, kas mērķē Microsoft Copilot.
– GenAI atklāšanas korelācija ar identitātēm Microsoft Entra ID, Microsoft 365, AWS un Active Directory.
– Microsoft Copilot GenAI atklāšanu prioritizācija kopā ar tīklu (Vectra NDR), identitāti (Vectra ITDR) un mākoņu (Vectra CDR) atklājumiem.
– Daudz dažādu uzbrukumu virsmu metadatu integrācija tūlītējiem un pilnīgiem izpētēm.
– Iedzimtas, automātiskas reaģēšanas darbības, lai bloķētu atklāšanā iesaistītās viesus un kontus.

Vectra AI galvenais produkta direktors Džefs Rīds uzsver, ka vairāk nekā 40% no viņu identitātes uzbrukuma risinājumu klientiem tagad izmanto Microsoft Copilot M365. Šī Vectra AI Platformas jaunā uzlabojuma nodrošina SOC aizsardzības iespējamājiem noderīgas rīkus, lai aizsargātu identitātes un novērstu GenAI rīka izmantojošus uzbrucējus.

Radnieciskās AI tehnoloģijas, piemēram, Microsoft Copilot, piedāvā divvirzienu zobenu; tās var ievērojami uzlabot produktivitāti, bet arī radīt būtiskus kiberaizsardzības izaicinājumus. Šeit ir daži fakti, jautājumi, atbildes, galvenie izaicinājumi, kontroverses un plusi un mīnusi saistībā ar tēmu:

Saistošie fakti:
– Microsoft Copilot ir viens no radnieciskās AI praktiskajiem pielietojumiem darbā.
– Kiberaizsardzības draudi ir attīstījušies ar tehnoloģijām, pielāgojoties, lai izmantotu jaunās sistēmas un rīkus, ieskaitot radniecisko AI.
– Ārējās kiberaizsardzības pasākumi vairs nav pietiekami; uzņēmumiem ir nepieciešama dinamiska, nepārtraukta uzraudzība un aizsardzības mehānismi.
– AI integrācija kiberaizsardzībā ir nepieciešama, lai būtu soli līdzi ar AI iedraudzētajiem kiberaizsardzības draudiem.

Svarīgi jautājumi un atbildes:
– Jautājums: Ko nozīmē radnieciskās AI uzbrukumi?
Atbilde: Radnieciskie AI uzbrukumi var ietvert AI rīku izmantošanu, lai izveidotu viltus e-pastus vai reālistisku viltus saturu, lai maldinātu cilvēkus vai sistēmas, rezultātā nonākot neautentiskā piekļuvē vai datu pārkāpumos.

– Jautājums: Kā Vectra AI risinājums atšķir legālu no ļaunprātīgas AI uzvedības?
Atbilde: Vectra AI izmanto uzvedību balstītu AI ar sarežģītiem algoritmiem, kas analizē šablones un anomalijas, kas ir raksturīgas uzbrukumam, nevis normālām darbībām.

Galvenie izaicinājumi:
– Sevī ietverot līdzi AI un mašīnmācības attīstību, ko izmanto ļaunprātīgie uzbrucēji.
– Nodrošinot, ka detektēšanas spējas ir pietiekami sarežģītas un niansētas, lai neradītu viltus pozitīvus, kas varētu kavēt produktivitāti.
– Līdzsvarošana starp drošības pasākumiem un lietotāju privātumu un datu aizsardzības regulācijām.

Kontroverses:
– Debates par atkarību no AI drošības nolūkos pret potenciālo risku, ka AI pati var tikt kompromitēta.
– Spriedze starp inovāciju AI un kiberdrošības pasākumu attīstības kavēšanos, lai ar to pavadošo to.

Priekšrocības:
– Vectras AI vadītās detektēšanas spējas var nodrošināt reāllaika, efektīvu draudu noteikšanu.
– Paaugstināta automatizācija un kiberaizsardzības aizsardzības integrācija var samazināt darba apjomu SOCI.
– Uzvedības pamatā balstīta analīze var samazināt laiku, kas nepieciešams, lai identificētu un izolētu uzbrukumus.

Nepilnveidi:
– Pārmērīga atkarība no AI var radīt viltu sajūtu par drošību, ja netiek apvienotas citas kiberaizsardzības politikas un procedūras.
– Potenciāls risks, ka AI var tikt kompromitēts vai izmantots ļaunprātīgi pats par sevi.
– Izaicinājumi, kas saistīti ar jaunajām draudu apdraudējumu atjaunināšanas.

Uzņēmumiem ir būtiski saskaļot līdzsvaru starp resursu izmantošanu AI ražošanai un drošības risku vadīšanu. Kā daļa no pastāvīgajām kiberaizsardzības stratēģijām, organizācijām rūpīgi jāapsver izmantotie risinājumi, piemēram, Vectra AI paplašinātā platforma, adaptīvai un stabili aizsardzībai pret draudiem mainīgajā digitālajā ainavā.

Dziļāk varat iepazīties ar kiberaizsardzību un radniecisko AI, apmeklējot Vectra AI tīmekļa vietni šeit: Vectra AI.

Privacy policy
Contact