Automātisko ieroču, kas darbināmi ar cilvēka inteliģenci, briesmas un “flash wars” perspektīvas.

Mākslīgā intelekta loma modernajā karadarbībā rada jaunas draudzības

Karadarbības mainīgajā ainavā, pašdarbojošās ieroču sistēmas, kas darbojas ar mākslīgo intelektu (MI), ir steidzams jautājums globālai drošībai. Profesors Karls Hanss Blēziuss, bijušais datorzinātņu profesors, kas specializējies MI, izraisa trauksmi par šādu tehnoloģiju potenciālu izraisīt strauju eskalācijas ciklu, kas nav cilvēka kontroli.

Prof. Blēziuss izklāsta autonomās tehnoloģijas priekšrocības, kā, piemēram, iespēju izmantot autonomus automobiļus un robotus bīstamos apstākļos. Tomēr viņš uzsver nopietnos riskus, kas saistīti ar autonomi darbīgo ieroču izstrādi iznīcināšanai. Viņš apgalvo, ka nogalināšanas automatizēšana nav vēlama un brīdina par īpaši bīstamu attīstību, ieskaitot saistībā ar kodolieročiem.

Veicot paralēles finanšu pasaulē ar augstas frekvences tirdzniecības algoritmiem, kas ir izraisījuši pēkšņas tirgus sabrukums, zināms kā “zibspārbīdes”, prof. Blēziuss brīdina, ka MI vadītie ieroči varētu līdzīgi iesaistīties neparedzamās mijiedarbībās, kas izraisītu ātras un nekontrolējamas “zibspārbīdes”. Šie scenāriji attēlo nākotni, kurā automatizētās sistēmas iesaistītos karadarbībā ātrumos, kas pārsniedz cilvēka spēju rīkoties, radot agresijas un pretuzbrukumu spirālo efektu.

Uzsvērojot jau esošo MI izmantošanu militārajās mērķu noskaidrošanas operācijās, piemēram, Izraēlas izmantošana, lai identificētu Hamas cīnītājus un viņu atrašanās vietas, prof. Blēziuss paudīs bažas par cilvēka verifikācijas trūkumu šajos gadījumos, kas beigās varētu ierosināt mašīnai nolēmt, kurš dzīvos un kurš nomirs, ieskaitot civiliedzīvotājus.

Blēziuss savu pētījumu noslēdz, pievēršoties AI nozīmei moderno militāro operāciju lielajā sarežģītībā un laika spiediena pārvaldībā. Tomēr viņš atzīst šādu attīstību problēmatisko raksturu, ņemot vērā to potenciālo spēju izlaist cilvēka spriedumu un tam nozīmētās ētiskās sekas.

Izzinātās un kontroverziju par AI vadīto pašdarbojošo ieroču jautājumi un izaicinājumi

AI vadītie pašdarbojošie ieroči rada kopumu arī kompleksu jautājumu un izaicinājumu, kas ir izraisījuši kontroverziju dažādās nozarēs, ieskaitot militāro, politisko, etisko un juridisko jomu. Šeit ir daži no galvenajiem izaicinājumiem un kontroverzijām:

Atbildība: Viens no galvenajiem jautājumiem attiecībā uz autonomajām ieroču sistēmām ir jautājums, kuram jābūt atbildīgam gadījumā, ja tiek nodarīta netieša iznīcināšana vai nepareiza nāve. Bez skaidriem pamatnostādnēm atbildības noteikšana par darbībām, ko veic AI, var būt izaicinājumi.

Ētiskas apsvērumu: AI izmantošana karadarbībā rada etikas jautājumus par cilvēka dzīvības novērtējumu. Mašīna nevar un nekad nevar novērtēt cilvēka dzīvību, radot bažas, ka to izmantošana karadarbībā var rezultēt lielāku konfliktu iespējā un vairāk dzīvības zaudējumu.

Politiskā lēmumu veikšanas erozija: Tradicionāli karadarbības sākšanas lēmums ir politisks, ko pieņem ievēlētie pārstāvji vai vadītāji. Ar AI vadītajām sistēmām, kas varētu reaģēt uz draudiem milisekundēs, pastāv bailes, ka politiskais process varētu tikt apiet, un karus varētu sākt bez pienācīga demokrātiskā procesa.

Karadarbības eskalācija: Autonomo ieroču izvietošana varētu izraisīt bruņošanās sacensību, jo valstis meklē ne tikai būt labākās par citu spēju, kas varētu novest pie pārējām militārajo spriegumu un nestabilitāti globāli.

Kļūdas risks: AI vadītās sistēmas ir pakļautas tehniskiem traucējumiem un kļūdām. Gadījumā, ja notiek programmatūras kļūda vai hakēšanas incidents, autonomas ieroči varētu iesaistīties negaidītās vai neprognozējamās rīcības, kas varētu eskalēties konfliktā.

Veicums un trūkumi

Veicumi:

– Palielināta efektivitāte un ātrums, liekot pretim draudiem
– Samazināts risks cilvēka karavīrus kaujas situācijās
– Mērķu precizitāte, kas varētu samazināt blakusnoves zaudējumus noteiktos kontekstos
– Darbība vidēs, kas cilvēkiem ir pārāk bīstamas

Trūkumi:

– Potenciāls zaudēt atbildību un samazinātu cilvēku uzraudzību
– Ētiskās problēmas saistībā ar cilvēka dzīvības vērtību un lēmumu pieņemšanu par izmantošanu letālajā spēkā
– Possibility of malfunctions or being compromised by adversaries
– Eskalācijas risks un militāro konfliktu izplatības risks (zibspārbīdes)
– Programmatūras AI radīts dilemmas, lai nodrošinātu atbilstību starptautiskajiem humanitārajiem tiesību aktiem

Galvenās jautājumus:

1. Kurš ir atbildīgs par autonomās ieroču sistēmas veiktajiem pasākumiem?
2. Kā AI vadītā karadarbība var atbilst starptautisko humanitāro tiesību aktiem?
3. Kādus mehānismus var ieviest, lai nodrošinātu piemērotu cilvēka uzraudzību pār autonomajiem ieročiem?
4. Kā starptautiskā kopiena var novērst AI vadīto pašdarbojošo ieroču izplatības un eskalācijas iespēju?

Diskusijai par AI vadīto pašdarbojošo ieroču turpinoties, Apvienoto Nāciju Organizācija ir platforms, kur šie izaicinājumi tiek apspriesti, cenšoties panākt globālu konsensu par šo ieroču regulējumu un kontroli.

Kopumā, neskatoties uz iespējamajām priekšrocībām AI izmantošanā militārajās operācijās, trūkumi un risks norāda uz piesardzīgiem izskatīšanas un regulējuma vajadzību starptautiskajā līmenī. “Zibspārbīdēm” perspektīvas kalpo kā nopietns brīdinājums par potenciālajām sekām vemšanas slīpē infiltrēšanās AI piemērošanā karadarbībā bez nepieciešamajiem pārbaudēm un līdzsvara pasākumu ieviešanai.

Privacy policy
Contact