Tokyo politsei vahistab mehe tehisintellekti kasutamisega pahavara loomise eest

Tokyo Metropolitani Politseiamet on kinni pidanud 25-aastase töötu mehe Ryu Hikaru, kes elab Kawasaki linnas, väidetavalt kasutas generatiivset kunstlikku intelligentsi (AI), et looma arvutiviiruseid, mis nõudsid krüptoraha lunaraha ja krüpteerisid faile. Enne seda juhtumit oli Hikarul pettusega seotud süüdistused. Arvatakse, et ta kasutas vastuseid mitmest generatiivsest AI tööriistast viiruse loomiseks.

Hikaru arreteerimine generatiivse AI kasutamise eest viiruse tootmiseks võib olla Jaapanis esmakordne juhtum. Hikaru, kes varem töötas tehases ja kellel polnud IT-valdkonnas ega sellega seotud haridustausta, on näidanud huvi raha teenimise lihtsuse vastu lunavaraga, millest ta nüüd on tunnistanud. Ta uskus, et tehisintellekt suudab mistahes ülesandega hakkama saada, kui talle esitatakse õiged küsimused.

USA ettevõte OpenAI on teinud jõupingutusi, et tugevdada oma süsteeme, näiteks ChatGPT, et vältida küsimustele vastamist, mida võiks kuritarvitada kuritegelikel eesmärkidel. Siiski pääses Hikaru nendest kaitsemeetmetest mööda, uurides internetist meetodeid ja kasutades mitmeid anonüümseid, tasuta generatiivse AI vestlusrakendusi, varjates hoolikalt oma kavatsusi küsimuste esitamisel viiruse loomiseks.

Põhiküsimused ja vastused:

K: Milliseid konkreetseid AI tööriistu kasutas Ryu Hikaru pahavara loomiseks?
V: Artiklis ei täpsustata, milliseid AI tööriistu Hikaru kasutas, öeldes vaid, et ta kasutas vastuseid mitmest generatiivse AI tööriistast.

K: Kuidas suutis Ryu Hikaru vältida AI arendajate rakendatud turvameetmeid?
V: Hikaru uuris meetodeid internetist turvameetmete ümbersõitmiseks ja kasutas mitmeid anonüümseid, tasuta generatiivse AI vestlusrakendusi. Ta varjas oma kurjakuulutavaid kavatsusi, esitades küsimusi viiruse loomiseks.

K: Millised on selle juhtumi mõjud AI arendajatele ja küberturvalisusele?
V: See juhtum rõhutab AI tehnoloogia võimalikku kuritarvitamise ohtu ja rõhutab vajadust tugevate turvameetmete ning pideva jälgimise järele AI arendajate poolt. See rõhutab ka küberturbe meetmete täiustamise tähtsust AI-generaatoritest tulenevate ohtude vastu võitlemisel.

Väljakutsed ja vaidlused:
Üks suur väljakutse AI kasutamisel pahavara loomiseks on AI tehnoloogiate eetiline kasutamine. Kuna AI muutub üha keerukamaks, saab seda kasutada nii kasulike kui ka kahjulike eesmärkide saavutamiseks. Tekib vaidlus arendajate ja platvormide vastutuse üle oma AI süsteemide kasutamise jälgimiseks ja kontrollimiseks, et vältida kuritarvitamist, ilma kasutaja privaatsust ja sõnavabadust rikkumata.

Teine väljakutse seisneb õiguskaitsevõime võimes pidada sammu tehnoloogilise arenguga. Kui pahatahtlikud isikud kasutavad üha arenenumat tehnoloogiat, muutub küberrünnakute avastamine ja ennetamine raskemaks.

Eelised ja puudused:

Eelised:
– Hikaru vahistamine näitab, et õiguskaitseasutused muutuvad osavamaks isikute tuvastamisel, kes kuritarvitavad AI tehnoloogiat.
– See võib viia tugevamate küberturbe meetmeteni ja ettevõtete poolt välja töötatud turvalisemate AI süsteemideni, et takistada selliseid juhtumeid tulevikus.

Puudused:
– AI kasutamine pahavara loomiseks kujutab endast olulist eskaleerumist küberrünnakute ohtudesse, muutes inimestele ja ettevõtetele enda kaitsmise keerulisemaks.
– See tekitab muret privaatsuse ja jälgimise pärast, kuna AI tööriistad võivad vajada täiendavat jälgimist.
– AI-generaatoritest loodud pahavara võib viia küberrünnakute ja küberturbe professionaalide vahel relvavõistluseni, suurendades kulusid ja keerukust kübeikaitse valdkonnas.

Lisateabe saamiseks AI tehnoloogiate arendamise ja rakendamise kohta külastage OpenAI. Lisateabe saamiseks küberturvalisuse ja kaitse kohta pahavara ja lunavararünnakute vastu võite külastada Cybersecurity & Infrastructure Security Agency (CISA). Palun märkige, et olen andnud need URL-id eeldusel, et need on õiged ja viivad tärnetatud peamisele domeenile ilma alamlehtedesse suunamiseta.

The source of the article is from the blog dk1250.com

Privacy policy
Contact