Finansinės kibernetinės saugos stiprinimo būtinybė

Finansų sektoriuje vis labiau daugėjantis dirbtinio intelekto (AI) naudojimas sukelia nerimą dėl padidėjusių kibernetinės saugos rizikų, teigia Naujienų Departamento paskelbtas naujausias pranešimas. Skubus bendradarbiavimas tarp vyriausybės ir pramonės reikalingas siekiant spręsti šias potencialias pavojų ir užtikrinti finansų sistemos stabilumą.

Pranešimas, kurį nurodė Bideno administracijos vykdomasis įsakymas, atkreipia dėmesį į AI sukeltas plėtros galimybes keliančią spragą. Dideli bankai ir finansų institucijos turi išteklių kurti savo AI sistemas, tuo tarpu mažesnės įstaigos vis dažniau atsilieka. Tai daro juos pažeidžiamus kibernetiniams grėsmėms, nes dažnai pasikliauja trečiųjų šalių AI sprendimais.

Nellie Liang, Finansų ministerijos su—tis hidininkė, pabrėžė, kaip svarbu bendradarbiauti su finansų institucijomis, kad būtų galima naudotis besiformuojančiomis technologijomis, tuo pat metu apsaugant nuo grėsmių. Pranešimas grindžiamas sėkminga viešojo ir privataus sektorių partneryste dėl saugiausių debesijos priėmimo būdų ir sukuria aiškų viziją finansų įstaigoms naviguoti besikeičiančiame AI varomo sukčiavimo veiksnių kraštovaizdyje.

Vienas iš pagrindinių Finansų ministerijos tyrimo išvadų yra duomenų bendradarbiavimo stoka dėl sukčiavimo prevencijos, ypač neigiamas poveikis mažoms finansų institucijoms. Ribotas prieiga prie duomenų trukdo jų galimybei kurti veiksmingus AI sukčiavimo gynybos metodus, priešingai didelioms institucijoms, kurios gali pasinaudoti dideliais duomenų kaupiamaisiais modelių mokymui. Šiam iššūkiui įveikti Narayana Pappu, Zendata generalinis direktorius, siūlo, kad duomenų standartizavimas ir kokybės vertinimas galėtų būti pasiūlyti kaip paslauga startuoliai. Technikos, kaip skirtingas privatumas, gali palengvinti informacijos dalinimąsi tarp finansų institucijų nesuteikiant galimybės kiekvieno kliento duomenims patekti antrai pusei.

Darktrace Federal generalinis direktorius Marcus Fowler pabrėžia kibernetinių grėsmių dinaminę pobūdį ir digitalinių aplinkų kompleksiškumą, kurių reikia gintis. Jis pabrėžia AI naudojimą tarp puolėjų, kuris vis dar yra ankstyvosiose stadijose ir turėtų sumažinti barjerą pradėti naudoti sudėtingus technikas mastu. Fowler pabrėžia defensyvios AI svarbą organizacijų apsaugai nuo tokių besivystančių grėsmių.

Pranešimas rekomenduoja supaprastinti reguliavimo priežiūrą, kad būtų išvengta fragmentacijos, ir plėsti Nacionalinio standartų ir technologijos instituto (NIST) sukurtus standartus finansų paslaugų sektoriui. Taip pat siūloma plėtoti „maisto ženklus” AI tiekėjams, kurie suteiktų skaidrumą apie duomenų rūšį, naudojamą AI modeliuose, ir jo numatytąją naudojimą. Be to, pranešimas pabrėžia poreikį padidinti kompleksinių AI sistemų aiškinamumą, vystyti mokymo ir kompetencijos standartus, standartizuoti AI žodyno apibrėžtis, spręsti skaitmeninių tapatybės klausimus bei skatinti tarptautinį bendradarbiavimą AI teisės aktų leidyboje ir rizikos mažinimo strategijose.

The source of the article is from the blog newyorkpostgazette.com

Privacy policy
Contact