Optimal Samarbeid for Finansiell Cybersikkerhet

Den veksande bruken av kunstig intelligens (AI) i finanssektoren har auka bekymringar om høgare cybersikkerheitsrisikoar, ifølgje ein ny rapport av Finansdepartementet. Det er eit presserande behov for samarbeid mellom styresmaktene og industrien for å takle desse potensielle farene og sikre stabiliteten i det finansielle systemet.

Rapporten, påbode av ein executive order av Biden-administrasjonen, framhevar det aukande gapet i kapasitet som AI skaper. Medan store bankar og finansinstitusjonar har ressursar til å utvikle sine eigne AI-system, vert mindre institusjonar stadig meir etterlate. Dette gjer dei sårbare for cybertruslar sidan dei ofte stolar på tredjeparts AI-løysingar.

Finansdepartementets undersekretær Nellie Liang understreka viktigheita av å samarbeide med finansinstitusjonar for å nyttiggjere seg ny teknologi samtidig som ein sikrar mot truslar. Rapporten byggjer på den vellykka offentleg-private partnarskapet for trygg skyadoptering og fastset ein klar visjon for finansinstitusjonar å manøvrere i det evolverande landskapet av AI-drevet svindel.

Eit av dei viktigaste funna i Finansdepartementets studie er mangel på datadeling om svindelprevention, noko som særleg gjer det vanskeleg for mindre finansinstitusjonar. Begrensa tilgang til data hindrar deira evne til å utvikle effektive AI-svindelforsvar, i motsetnad til større institusjonar som kan nyttiggjere massive datatankar for modelltrening. For å møte denne utfordringa, tillet Narayana Pappu, administrerande direktør i Zendata, at datastandardisering og kvalitetsvurdering kan tilbys som ein teneste av oppstartsbedrifter. Teknikkar som differensiert privatliv kan lette informasjonsdeling mellom finansinstitusjonar utan å inngripe individuell kundedata.

Marcus Fowler, administrerande direktør i Darktrace Federal, understrekar den dynamiske naturen av cybertruslar og kompleksiteten til digitale miljø som må forsvares. Han framhevar bruken av AI blant angriparar, som framleis er på sine tidlege stadier og forventast å senke inngangsbommen for å implementere sofistikerte teknikkar i stor skala. Fowler understrekar viktigheita av defensiv AI for å beskytte organisasjonar mot desse evolverande truslane.

Rapporten sine tilrådingar inkluderer straumlinjeforma tilsyn for å unngå fragmentering og utvide standardar utvikla av National Institute of Standards and Technology (NIST) for finanssektoren. Han argumenterer òg for utvikling av «ernæringsetikettar» for AI-leverandørar, som skulle gi transparent informasjon om typen data som vert brukt i AI-modellar og deira tiltenkte bruk. Vidare understrekar rapporten behovet for å forbetre forklaringskrafta til komplekse AI-system, utvikle opplæring og kompetansestandardar, standardisere definisjonar i AI-vokabularet, handsame digitale identitetsproblemar og fremskunde internasjonalt samarbeid i AI-regulering og risikominimeringstrategiar.

Sjølv om finansinstitusjonar har i aukande grad adoptert AI og maskinlæring (ML) for svindelprevention, har kostnaden for å utvikle desse verktøya avgrensa deira omfattande gjennomføring. Mange institusjonar stolar på eksterne leverandørar for AI- og ML-løysingar, og berre ein liten prosentdel går inn for å skape sine eigne løysingar. Rapporten oppmodar til auka samarbeid og kunnskapsdeling for å overkome desse utfordringane.

I konklusjonen har bruken av AI i finanssektoren ført med seg både moglegheiter og risiko. Samarbeid mellom styresmaktene, industrien og oppstartsbedrifter er avgjerande for å sikre at mindre finansinstitusjonar ikkje vert sårbare for cybertruslar. Ved å adresse datadeling, tilsyn, gjennomsiktighet og kompetansestandardar, kan finansindustrien effektivt nyttegjere styrken til AI samtidig som han sikrar mot potensielle risikoer.

FAQ

The source of the article is from the blog agogs.sk

Privacy policy
Contact