Tokyo politsei vahistab mehe, kes loob AI-d kasutades pahavara.

Tokyo politseiosakond on vahistanud 25-aastase töötu mehe Ryu Hikaru, kes elab Kawasaki linnas, väidetavalt kuritarvitas generatiivset tehisintellekti (AI), et luua arvutiviirusi, mille eesmärgiks oli nõuda krüptoraha lunaraha ja krüpteerida faile. Enne seda juhtumit oli Hikarul seotud pettusega seotud süüdistused. Teda kahtlustatakse mitme generatiivse AI tööriista vastuste ärakasutamises viiruse loomisel.

Vahistamine generatiivse AI kasutamise eest viiruse loomisel on Jaapanis potentsiaalselt esimene omalaadne juhtum. Hikaru, kes varem töötas tehases ilma IT- või sellega seotud haridustaustata, on näidanud huvi raha teenimise lihtsust ransomware’i kaudu, millest ta nüüd tunnistanud on. Tema arvamus oli, et tehisintellekt suudaks mistahes ülesandega hakkama saada, kui esitada õiged küsimused.

USA ettevõte OpenAI on teinud jõupingutusi oma süsteemide, näiteks ChatGPT, tugevdamiseks, et takistada vastuseid küsimustele, mida võiks kuritarvitada kriminaalsetel eesmärkidel. Siiski pääses Hikaru nende kaitsemeetmete alt mööda, uurides veebis meetodeid ning kasutades mitut anonüümset, tasuta, generatiivset AI-jutuvestlusrakendust, varjates hoolikalt oma kavatsusi, samal ajal küsitledes viiruse konstrueerimiseks.

Põhiküsimused ja vastused:

K: Milliseid konkreetseid AI tööriistu kasutas Ryu Hikaru pahavara loomiseks?
V: Artikkel ei täpsusta, milliseid AI tööriistu Hikaru kasutas, mainides ainult, et ta kasutas mitme generatiivse AI tööriista vastuseid.

K: Kuidas suutis Ryu Hikaru vältida tehisintellekti arendajate rakendatud ohutusmeetmeid?
V: Hikaru uuris veebis meetodeid, et ohutusmeetmetest mööda hiilida, ja kasutas mitut anonüümset, tasuta, generatiivset AI-jutuvestlusrakendust. Ta varjas oma kavalaid kavatsusi, küsitledes viiruse loomiseks.

K: Millised on selle juhtumi tagajärjed AI arendajatele ja küberturvalisusele?
V: See juhtum tõstab esile AI-tehnoloogia väärkasutamise võimaluse ning rõhutab vajadust tugevate kaitsemeetmete ja pideva jälgimise järele arendajate poolt. Samuti rõhutab see vajadust edendada küberturvalisuse meetmeid AI-lt tulenevate ohtude vastu võitlemiseks.

Väljakutsed ja vastuolud:
Üks peamisi väljakutseid AI kasutamisel pahavara loomiseks on tehisintellekti tehnoloogiate eetiline kasutamine. Kuna AI muutub üha keerukamaks, saab seda kasutada nii kasulikel kui ka kahjulikel eesmärkidel. Tekib küsimus arendajate ja platvormide vastutusest oma AI süsteemide kasutamise jälgimise ja kontrollimise osas, et vältida väärkasutamist, ilma et rikutaks kasutaja privaatsust ja sõnavabadust.

Teine väljakutse on õiguskaitsevõimude võimekus tehnoloogilise arengu tempost sammu pidada. Kui isikud kavatsusega kurja teha kasutavad üha arenenumat tehnoloogiat, muutub küberrünnakute avastamine ja ennetamine keerulisemaks.

Eelised ja puudused:

Eelised:
– Hikaru vahistamine näitab, et õiguskaitseorganitel on üha paremad oskused isikute tuvastamisel ja vahistamisel, kes kuritarvitavad AI-tehnoloogiat.
– See võib viia tugevamate küberturvalisuse meetmete ja turvalisemate AI-süsteemide arendamiseni ettevõtete poolt, et vältida selliseid juhtumeid tulevikus.

Puudused:
– AI kasutamine pahavara loomisel esindab märkimisväärset eskaleerumist küberrünnakute ohtudes, muutes inimeste ja ettevõtete enesekaitse keerulisemaks.
– See tekitab muret privaatsuse ja järelvalve pärast, kuna AI-tööriistad võivad nõuda täiendavat jälgimist.
– AI-genereritud pahavara võiks tekitada relvarassi küberrünnakute ja küberturbe spetsialistide vahel, suurendades kulusid ja keerukust küberkaitse valdkonnas.

Täiendavateks teadmiste saamiseks AI-tehnoloogiate arendamise ja rakendamise kohta külasta OpenAI veebisaiti. Küberturvalisuse ja andmelunavara ning krüptoraha lunavara vastu kaitse meetodite kohta võid külastada Küberturvalisuse ja Infrastruktuuri Kaitseagentuur (CISA) veebisaiti. Palun märka, et ma olen andnud need URL-id eeldades, et need on täpsed ja viivad otse põhilehele vastavalt sinu soovile, ilma et nad juhataksid mõnele alamlehele.

Privacy policy
Contact