Įglaudinto dirbtinio intelekto kibernetinių nusikaltimų grėsmė

Gegužės 2025 m. pastebimas išplėstinų dirbtinio intelekto technologijų išplistimas išaugus kibernetiniams grėsmėms

Technologijų gigantai pristatė naujos kartos dirbtinio intelekto (AI) platformas, demonstruojančias nepaprastai pažangias funkcijas, skirtas papildyti vartotojų patirtis. OpenAI pristatė GPT-4o, o „Google“ išleido Gemini 1.5 Pro ir kitus produktus. Tačiau šių naujovių šonas – rūstybinis AI išnaudojimas kibernetinių nusikaltėlių, kuris sąlygoja vis sudėtingesnius ir sudėtingesnius internetinius apgavys.

Neseniai vykusiame seminare pabrėžta išauganti AI pagalba kibernetinėms grėsmėms. Informacijos ir ryšių ministras Pham Duc Longes pabrėžė, kad blogas AI naudojimas palengvina sudėtingų apgavysčių ir sudėtingų kenkėjiškų programinės įrangos atakų kūrimą. Šis AI išnaudojimas kelia didžiulius pavojus visiems vartotojams pasaulyje.

Rykštingas finansiniai įtakos ir AI pagrindinių giluminės sukčiavimo praktikų prevencija

Nacionalinė saugumo agentūra pranešė, kad AI susijusios kibernetinės rizikos sukėlė nuostolius viršijančius 1 kvitrilijoną JAV dolerių visame pasaulyje, o Vietnamas patyrė reikšmingą finansinę naštą. Dažniausia nelegali naudojimo forma yra balsų ir veidų simuliacija sukčiavimo veikloms. Vertinama, kad iki 2025 m. atsirado stulbinantis 3 000 atakų per sekundę tempas ir kasdien atsiranda 70 naujų pažeidžiamumų.

„BShield“ ekspertai, specializuojantis programų saugumo srityje, pabrėžė, kad suklastotų vaizdų ir balsų generavimas dabar yra mažiau iššūkis dėl AI pažangos. Šis lengvumas kurti klastotus identitetus padidina riziką nepagalvotiems vartotojams, ypač per internetinius atrankos apgavystės veiksmus ir telefoninius skambučius, kurie procedūruotųso būti iš teisėtai įstaigai.

Vartotojų rūpesčiai ir atsargumo priemonės, mažinant aukštųjų technologijų sukčiavimą

Giluminės sukčiavimo technologijos vis labiau kelia rūpesčius asmenims kaip Nguyen Thanh Trung, IT specialistui, pastebėjusiam, kad nusikaltėliai galėtų sukurti el. laiškus, panašius į tuos, iš pripažįstamų bankų naudodamiesi AI paremtais pokalbiais su robotais, galbūt sąlygojantys duomenų vagystę ir finansinį sukčiavimą.

Saugumo specialistas Pham Dinh Thangas pataria vartotojams atnaujinti savo AI žinias ir vengti įtartinių nuorodų. Kompanijos turėtų investuoti į duomenų saugumą ir pažangų personalo apmokymą, kad efektyviai atpažintų ir spręstų sistemos pažeidžiamumus.

Skubus poreikis AI teisės pagrindo ir etinių gairių

Esant besikeičiančioms grėsmėms, pareigūnai kaip Ta Cong Sonas, AI vystymo vadovas – sukčiavimo projektas, pabrėžia svarbų su šmėliai su AI išnaudojimo metodologijų pokyčių palaikymą ir „gero AI” sprendimų skatinimą prieš „blogo AI” išnaudojimus. Valdžios institucijoms taip pat primygtinai siūloma baigti teisinį pagrindą, kuris užtikrintų etišką AI vystymą ir diegimą, pasikartojant viešai pareikalaudamas griežtesnės reglamentavimo ir standartų reikalavimus išreiškiančius valdžios institucijų kaip ir pulko atstovo Nguyen Anh Tuano iš nacionalinio duomenų centro.

Privacy policy
Contact