Gegužė 2024 m.: Kitoji karto dirbtinio intelekto atsiradimas kelia didesnes saugumo rizikas

Išmaniojo oro, pvz., „GPT-4o“ iš „OpenAI“ ir „Gemini 1.5 Pro“ iš Google „2024 m. Gegužės mėn.“ Įdiegimas išvestų pažangias dirbtinės intelektos versijas didžiųjų pasaulio technologijų įmonių, pažymėtas reikšmingu šuoliu įmantrių funkcijų link, siekiant optimizuoti vartotojų patirtį. Tačiau kartu su šiais žingsniais einančia eskalacija internetinių sukčiavimo scenarijų.

Kibernetinių saugumo iššūkių eksponentinis augimas

Neseniai vyksiančiose seminaruose, įvykusiame „OpenAI“ ir „Google“ atstovaujantis Vietnamos Informacijos ir ryšių viceministras Phạm Đức Long apsikele įprastai daugėjančių kibernetinių atakų atvejų, kurie tampa vis sudėtingesni ir įvairesni. Šis augimas, skatinamas dirbtinės intelektas, didina galimas grėsmes, su kuriomis susiduria vartotojai, leisdami nusikaltėliams lengvai kurti naujas kenkėjiškas programas ir išradingas apgavysčių formas.

Nacionalinio kibernetinio saugumo agentūros ataskaitoje yra pateikiami aukšti AI su kibernetiniais rizikos veiksniais susiję išlaidų duomenys, siekiantys virš 1 trln. JAV dolerių. Vientnamas vienas pats patyrė finansinių sukčiavimų poveikį, kurį vertina nuo 8 iki 10 tln. VND. Šiuo metu AI naudojimas balsams ir veido bruožams imituoti sukčiavimo tikslais sparčiai auga.

Prognozės nurodo, kad iki 2025 m. galėtų būti atliekama apie 3 000 kibernetinių atakų per sekundę, kartu su 12 naujų kenkėjiškų programų veislių ir 70 pažeidžiamumų kiekvieną dieną.

Gilios suklastojimo technologijos plėtra kriminalinių įrankių rinkinį

Nguyễn Hữu Giáp, kuris yra BShield vadovas ir siūlo saugumo sprendimus taikomoms programoms, pastebi, kad su dabartinėmis AI technologijų pažangomis padirbtų vaizdų ir balsų kūrimas yra ne sudėtingas. Nusikaltėliai lengvai gali rinktis vartotojų duomenis, atvirai bendrindami juos socialiniuose tinkluose arba naudodami apgaulingo pobūdžio taktiką, pavyzdžiui, internetinius darbo pokalbius. BShield pateikė simuliacijas, kuriose parodyta, kaip sukčius galėtų įterpti jau esančią veidą iš vaizdo skambučio į suklastotą tapatybę, jį susieti su veikiančiu kūnu, kad apgautų elektroninio tapatybės atpažinimo sistemą ir būtų atpažįstamas kaip tikras asmuo.

Naudotojo požiūriu, IT specialistas Nguyễn Thành Trung iš Hošimino Miesto išsako savo susirūpinimą dėl to, kokiu būdu piktavaliai lengvai gali naudoti AI, pvz., chatGPT, kad sukurtų žūtbūtinio elektroninio pašto laiškus, mimikruojančius teisėtus ryšius iš bankų ar gerbiamų subjektų, kartais turinčius kenkėjiškų programų priedus, siekiančius apgauti nepasiruošusį vartotoją.

Svarbūs klausimai ir atsakymai:

Kaip AI skatinamas kibernetinių saugumo grėsmų augimas veikia verslus ir asmenis? Su pažangiu AI kibernetiniai nusikaltėliai gali vykdyti sudėtingas atakas, kurios gali lemti jautrių duomenų vagystę, finansinius nuostolius ir reputacijos pažeidimus. Tie patys verslai ir asmenys tampa vis labiau pažeidžiami šioms rizikoms, reikalaujant didesnių saugumo priemonių ir sąmoningumo.

Kokią rolę atlieka gilios suklastojimo technologijos kibernetinių rizikų kontekste? Gilios suklastojimo technologija, kuri sukuria įtikinančius išvaizdos ir balso suklastojimus, kelia didelį rizikingumą, nes gali būti naudojama imituoti atskirus asmenis, manipuliuoti suvokimu ir palengvinti sukčiavimą. Jos prieinamumas ir pasiekiamumas kelia nerimą dėl kibernetinės saugumo.

Kokie iššūkiai kovojant su AI sukeltomis kibernetinėmis grėsmėmis? AI sukeliamos kibernetinės grėsmės dažnai yra sudėtingos ir gali sparčiai kisti, todėl sunku jas aptikti ir reaguoti į jas. Viena iš pagrindinių iškylančių problemų yra laikyti saugumo priemones žingsniu prieš šiuos kylančius pavojus. Kenkėjiškų programų sukūrimo greitis ir nusikaltėliams naudojami dirbtinio intelekto įrankiai reikalauja nuolatinio technologinių ir procedūrinių kibernetinės saugos gynybos tobulinimo.

Pagrindiniai iššūkiai ir ginčai:

Etiškos implikacijos: AI plėtra, galint sklaidytis piktnaudžiavime, kelia etinių klausimų apie kūrėjų atsakomybę ir poreikį reguliavimo ir kontrolės mechanizmams, siekiant užkirsti kelią piktnaudžiavimui.

Privatumo rūpesčiai: Kuriantis vis glaudžiai integruojant AI su asmeniniais duomenimis, kyla padidėjusi privatumo pažeidimo rizika, atnešdama ginčus dėl duomenų rinkimo, sutikimo ir technologinių naudų bei privatumo teisių pusiausvyros.

Reguliuojantis pagrindas: Sutarčių dėl išaiškinimo, kad tvarkant dvigubą AI naudojimą teisėtoms ir piktnaudžiavimo paskelbtiems tikslams, yra sudėtinga dėl…

Privacy policy
Contact