Googlov prizadevanje za izboljšanje kibernetske varnosti in odkrivanje ribarjenja

Google DeepMind raziskuje varnost na spletu z umetno inteligenco

Google se je lotil raziskave, ali lahko umetna inteligenca pomaga pri preprečevanju kibernetskih napadov. Vodilni raziskovalec DeepMinda, Elie Bursztein, je na konferenci RSA v San Franciscu poudaril, kako trenutni napredki na področju umetne inteligence podjetjem pomagajo pri obrambi pred nevarnimi kibernetskimi grožnjami.

Mnogi zlonamerni dokumenti, prestreženi prek Gmaila, ki predstavljajo približno 70% vsebine, uporabljajo kombinacijo besedila in grafike, vključno z uradnimi logotipi podjetij. Ta taktika si prizadeva zavesti uporabnike, da se rola kot legitimno komunikacijo.

Moč umetne inteligence pri razkrivanju poskusov ribarjenja

Google je v svoji preiskovalni akciji uporabil svojega pogovornega robota, Gemini Pro, za odkrivanje škodljivih dokumentov z odlično stopnjo zaznavanja. Čeprav je Gemini Pro uspešno identificiral 91% poskusov ribarjenja, je zaostal za AI programom, posebej usposobljenim za zaznavanje ribarjenja, ki je dosegel 99% uspešnost in deloval z večjo učinkovitostjo.

Vendar pa potencial Gemnija Pro sega preko preprostega identificiranja groženj. Njegova moč leži v razlaganju, zakaj so določena sporočila ribarjenja označena kot zlonamerna. Na primer, ko je analiziral prevare PDF, ki se je izdajal za e-pošto iz podjetja PayPal, je Googlova AI spretno opazila neskladja v kontaktnih informacijah in uporaba nujnega jezika, značilnosti goljufive taktike.

Kljub prikazu sposobnosti Google ostaja v eksperimentalni fazi. Skrb zajema obsežna računska moč, potrebna za zagon AI sistema, kot je Gemini Pro, na tako veliki ravni kot Gmail.

Inovacija v varnostnih ukrepih na spletu s pomočjo umetne inteligence

Razmišljajoč o prihodnjih možnostih, Google tudi preiskuje, kako genetično AI lahko uporabimo za odkrivanje in samodejno popravljanje ranljivosti programske kode. Kljub temu se LLM-ji soočajo s težavami pri odkrivanju teh ranljivosti zaradi “hrupnih” in bogatih vadbenih podatkov, zaradi česar je natančna identifikacija programske napake naporna.

Notranje raziskave Google so pokazale omejitve LLM-jev, s komaj 15% uspešnostjo pri popravljanju napak v C++ programski opremi. V nekaterih primerih so modeli celo povzročili nove težave.

Kljub temu se zdi integracija AI v kibernetsko varnost obetavna, kar nam pokaže Googlovo interno preizkušanje, ki je dokazalo 51% zmanjšanje časa pri pripravi poročil o odzivu na incidente z uporabo pomoči AI generiranih osnutkov.

Googlove nepretrgane pustolovščine v uporabi AI v operacijah kibernetske varnosti nazorno prikazujejo, kako sodobna tehnologija lahko opremi človeške ekipe, izboljša učinkovitost in potencialno revolucionizira zaščitne ukrepe proti kibernetskim grožnjam.

Ključna vprašanja in odgovori

1. Kako učinkovita je AI pri odkrivanju poskusov ribarjenja?
AI se je izkazala za zelo učinkovito pri odkrivanju poskusov ribarjenja, specializirani AI programi pa so pokazali uspešnost zaznavanja do 99%.

2. Kakšni so izzivi uporabe AI za kibernetsko varnost, zlasti za odkrivanje ranljivosti programske kode?
Eden glavnih izzivov je prisotnost “hrupnih” podatkov v vadbenih sklopih, kar lahko povzroči težave velikim jezikovnim modelom (LLM-ji) pri natančnem identificiranju programske napake. LLM-ji včasih kažejo nizke uspešnosti in lahko s poskusom odpravljanja napak v programski kodi povzročijo nove napake.

3. Ali lahko AI izboljša učinkovitost nalog povezanih s kibernetsko varnostjo?
Da, AI lahko močno izboljša učinkovitost; kot je bilo dokazano v preizkusu Googla, so osnutki poročil, ki jih je ustvarila AI, privedli do 51% zmanjšanja časa za pripravo poročil o odzivu na incidente.

Pomembni izzivi in kontroverze

Računske vire: Zagon obsežnih AI sistemov, kot je Gemini Pro, zahteva ogromno računske moči, kar lahko predstavlja omejitev pri razširitvi rešitev.
Natančnost in zanesljivost: Čeprav AI kaže visoko učinkovitost pri zaznavanju groženj, ni brez napak. Zagotavljanje, da so AI sistemi točni in ne ustvarjajo lažnih pozitivov ali ne zamudijo dejanskih groženj, je ključno.
Etične in zasebnostne pomisleki: Uporaba AI v kibernetski varnosti lahko privede do etičnih in zasebnostnih pomislekov, zlasti glede ravnanja in analize občutljivih podatkov s strani AI sistemov.

Prednosti in slabosti

Prednosti:

Učinkovitost: AI sistemi lahko obdelajo velike količine podatkov veliko hitreje kot ljudje, s čimer pospešijo proces zaznavanja in odziva na kibernetske grožnje.
Proaktivna zaščita: AI lahko z uporabo strojnega učenja napove in odkrije nove vrste zlonamernih programov ali napadov, zagotavljajoč proaktivno zaščito namesto reaktivne.
Poglobljena analiza: AI lahko ponudi vpogled v taktike in tehnike, ki jih uporabljajo kibernetski napadalci, kar lahko pomaga izboljšati celovite varnostne strategije.

Slabosti:

Porabljanje virov: AI sistemi zahtevajo veliko računske moči, kar je lahko drago in porabljajo veliko energije.
Kompleksen trening: Usposabljanje AI sistemov za naloge kibernetske varnosti je kompleksno in zahteva visokokakovostne, obsežne podatkovne nize, ki so pogosto težko sestaviti.
Tveganje prekomernega zaupanja: Prevelika odvisnost od AI lahko privede do zanemarjanja človeškega vidika kibernetske varnosti, ki je ključen za sprejemanje odločitev in obvladovanje kompleksnih ali kontekstno specifičnih groženj.

Sorodne povezave

Za več informacij o Googlovi tehnologiji in napredkih na področju AI, obiščite glavno stran Google AI na Google AI in uradno spletno stran DeepMind na DeepMind. Za tiste, ki jih zanimajo viri na področju kibernetske varnosti, razmislite o raziskovanju glavne strani konference RSA na RSA Conference. Vse povezave so bile preverjene, da zagotovimo, da vodijo na pravilno glavno domeno.

Privacy policy
Contact