Tokijas policija arestē vīrieti, kurš izveidojis kaitēkļus, izmantojot AI

Tokijas Metropolēs Policijas departaments ir aizturējis 25 gadus vecu bezdarbnieku Ryu Hikaru, kas dzīvo Kawasaki pilsētā, apsūdzot viņu ļaunprātīgi izmantojot radījošo mākslīgo intelektu (AI), lai radītu datorvīrusus, kuriem mērķis bija pieprasīt kriptovalūtas izpirkuma maksas un šifrēt failus. Pirms šī incidenta Hikaru jau saskāries ar krāpšanas apsūdzībām. Aizdomas par viņa rīcību ir tādas, ka viņš izmantojis vairāku radījošo AI rīku atbildes, lai izveidotu vīrusu.

Aizturēšana par radīšanas AI izmantošanu virusa radīšanai varētu būt pirmā šāda veida lieta Japānā. Hikaru, kurš agrāk strādājis rūpnīcā bez IT vai saistītās izglītības fona, ir izrādījis interesi ātri nopelnīt naudu, izmantojot izpirkuma vīrusus, par ko viņš tagad ir atzinies. Viņš ticēja, ka mākslīgā intelekts var veikt jebkuru uzdevumu, ja ir uzdoti pareizie jautājumi.

ASV uzņēmums OpenAI ir veicis pūles, lai pastiprinātu savus sistēmas, piemēram, ChatGPT, lai novērstu noziedzīgām vajadzībām izmantotās atbildes uz jautājumiem. Tomēr Hikaru izvairījās no šīm aizsardzībām, pētot metodes tiešsaistē un izmantojot vairākus anonīmus, bezmaksas, radījošus AI čata lietojumprogrammas, rūpīgi slēpjot savas nodomas, lai radītu vīrusu.

Galvenie jautājumi un atbildes:

J: Kādus konkrētus AI rīkus izmantoja Ryu Hikaru, lai radītu kaitēkļprogrammatūru?
A: Raksts neprecizē konkrētos AI rīkus, ko izmantoja Hikaru, minot tikai, ka viņš izmantoja atbildes no vairākiem radījošiem AI rīkiem.

J: Kā Ryu Hikaru bija spējīgs izvairīties no AI izstrādātāju ieviestajām aizsardzībām?
A: Hikaru pētīja metodes tiešsaistē, lai izvairītos no aizsardzībām, un izmantoja vairākas anonīmas, bezmaksas, radījošas AI čata lietojumprogrammas. Viņš slēpa savas ļaunprātīgās nodomas, kuršot, lai izveidotu vīrusu.

J: Kādas ir šī incidenta sekas AI izstrādātājiem un kiberdrošības jomā?
A: Šis incidents uzsver AI tehnoloģiju ļaunprātīgas izmantošanas potenciālu un uzsvēra nepieciešamību pēc stingrām aizsardzībām un nepārtrauktas monitorēšanas no AI izstrādātājiem. Tas arī akcentē nepieciešamību pēc kiberdrošības pasākumu attīstīšanas, lai apkarotu AI radītas draudus.

Izaicinājumi un kontroverses:
Viens no galvenajiem izaicinājumiem, izmantojot AI, lai radītu kaitēkļus, ir etisko AI tehnoloģiju izmantošana. Kad AI kļūst aizvien sarežģītāks, to var izmantot gan labvēlīgiem, gan kaitīgiem nolūkiem. Ir kontroverze par attīstītāju un platformu atbildību pārraudzīt un kontrolēt savu AI sistēmu izmantošanu, lai novērstu ļaunprātīgu izmantošanu, neiejaujoties lietotāju privātumā un runas brīvībā.

Cits izaicinājums ir likumvaras spēja sekot līdzi tehnoloģiju attīstības tempam. Kad cilvēki ar ļaunprātīgām nodomām izmanto arvien jaunāko tehnoloģiju, kļūst arvien grūtāk konstatēt un novērst datornoziegumus.

Priekšrocības un trūkumi:

Priekšrocības:
– Hikaru aizturēšana liecina par to, ka likuma izpildes aģentūras kļūst arvien vairāk prasmīgas, lai identificētu un turētu aizdomās turētos, kas ļaunprātīgi izmanto AI tehnoloģijas.
– Tas var izraisīt stingrākas kiberdrošības pasākumus un drošākas AI sistēmas, ko izstrādā uzņēmumi, lai novērstu šādas lietas nākotnē.

Trūkumi:
– AI lietošana, lai radītu kaitīgu programmatūru, ir būtiska eskalācija kiberdraudiem, kas potenciāli padara grūtāku indivīdiem un uzņēmumiem aizsargāt sevi.
– Tas rada bažas par privātumu un uzraudzību, jo AI rīkiem var būt nepieciešama papildus pārraudzība.
– AI radītie kaitēkļi var izraisīt ieroču sacensību starp kibervardarībām un kiberdrošības profesionāļiem, ar pieaugošiem izdevumiem un sarežģītību cīņā pret kiberuzbrukumiem.

Lai iegūtu plašāku informāciju par AI tehnoloģiju attīstību un ieviešanu, apmeklējiet OpenAI. Lai iegūtu informāciju par kiberdrošību un to, kā aizsargāties pret kaitēkļiem un izpirkuma vīrusiem, varat apmeklēt Kiberdrošības un infrastruktūras drošības aģentūru (CISA). Lūdzu, ņemiet vērā, ka esmu sniedzis šīs URL, pieņemot, ka tās ir precīzas un ved uz galveno domēnu, kā pieprasīts, nevedot uz citām lapām.

Privacy policy
Contact