Izraēlas militāraji izmanto AI mērķa noteikšanai Gazas konfliktā

Kopš oktobra 2023. gadā Izraēlas militārajam spēkiem ir pievērsta liela uzmanība, izmantojot mākslīgo intelektu (AI) kara nolūkos. Pārrakstāmā Gazas konfliktā Izraēlas Aizsardzības spēki (IDF) izmanto AI vadītās sistēmas, lai precīzi iegūtu informāciju par draudiem bieži apdzīvotajā reģionā. Mašīna, kas darbināta, pamatojoties uz plašu datu apkopošanu, spēlē kritisku lomu šajā procesā, apvienojot informāciju, piemēram, dzīvesvietu adreses, kustību veidus, sociālo mediju aktivitāti un pat personiskās asociācijas, lai izveidotu potenciālo mērķu sarakstus.

Skandāli, ko izraisīja izraēliešu žurnālisti, balstoties uz sešu IDF elitekiberspionāžas vienības locekļu atklājumiem, ir izgaismoti kontroversiālās operācijas “Lavender” darbību. Šajā operācijā tiek izveidoti saraksti, kas faktiski kalpo kā iepriekšēji paredzētas nāves saraksti. Redaktors galvenais Meron Rapoport sniedz nopietnu skatījumu tiem, kas tiek iekļauti šajos sarakstos ar AI sistēmu palīdzību, izvērtējot iekļaušanu kā nāves zīmju.

AI nenodara autonomas darbības, lai iznīcinātu mērķus; tomēr IDF personālu instruē rīkoties nekavējoties, ja sistēma identificē mērķi. Kritēriji pieņemamajam blakuspostījumam ir ievērojami; parastiem mērķiem tas ir 15-20 cilvēki, bet šis skaitlis var paaugstināties līdz 200-300 cilvēkiem augstvērtīgu mērķu gadījumā. Cilvēktiesību organizācijas un Apvienoto Nāciju organizācija ir paudušas bažas par šo metodi, it īpaši ņemot vērā pirmo reizi lietoto AI lietotājiem kaujas lēmumu pieņemšanā lielo mērogu armejā.

Galvenie jautājumi:

1. Kādas ētiskās sekas ir saistītas ar AI izmantošanu mērķu iegūšanai konflikta zonās?
AI militārās lietojumprogrammas, īpaši mērķu ieguves jomā, rada ievērojamas ētiskas raizes. Lēmumi, kas var novest pie cilvēku dzīvības zaudējumiem, ir ļoti jutīgi, un šo lēmumu deleģēšana AI sistēmām var radīt morālu attālumu starp cilvēkiem un letāliem rezultātiem. Kļūdu risks un iespēja samazināt slieksni iesaistīties kaujās sakarā ar uztvertās AI sistēmu precizitāti un efektivitāti ir arī spēcīgas etiskās problēmas.

2. Cik precīza ir AI, identificējot derīgus militārus mērķus, un kādas drošības garantijas ir izveidotas, lai novērstu cilvēku upurus?
Nav nevienas AI sistēmas, kas būtu nekļūdīga. Tāpēc precizitāte ir būtiska, izmantojot to militārām vajadzībām, īpaši bieži apdzīvotās vietās, kur cilvēku upuru risks ir augsts. Drošības garantijas parasti ietver stingras iesaistīšanās noteikumus un cilvēku uzraudzību. Tomēr IDF sistēmas precīzu dabu un efektivitāti publiskajā vidē nav detalizēti aprakstītas.

3. Kādas sekas rada AI-dzenšana kaujām starptautiskajās likumdošanas un bruņoto konfliktu noteikumu jomā?
AI-dzenšana kaujām rada izaicinājumus starptautiskajai likumdošanai, īpaši atšķirības, proporcionālitātes un nepieciešamības principiem bruņotu konfliktu noteikumos. Šie principi prasa, lai cīnītāji atšķirtu starp militārajiem mērķiem un nekaujotspējīgajiem, nodrošinātu, ka gaidītā militārā priekšrocība no uzbrukuma nekonkurē ar cilvēku kaitējumu, un izmanto spēku tikai nepieciešamības gadījumā. AI integrēšana rada grūtības saglabāt šo principu ievērošanu.

Galvenie izaicinājumi un kontroverses:

Uzņemšana: Ar AI sistēmām, kas spēlē lielu lomu mērķu noteikšanā, nav viegli noteikt skaidru atbildību, kad notiek nejauši nosaukumi vai nepareiza mērķēšana.
Ētiskās lēmumu pieņemšanas process: Mašīnmācība izmantošana rada jautājumus par to, kā etiskās apsvērumus iekodē AI sistēmās, ja vispār, un vai šīs sistēmas var novērtēt cilvēka dzīves sarežģītības un mērķēšanas lēmumu morālo svaru.
Datu privātums: Personisko datu, piemēram, sociālo mediju aktivitāšu un personīgo attiecību, apkopošana un izmantošana mērķēšanas nolūkos ar AI sistēmām var izraisīt bažas par privātuma pārkāpumiem.

Avantāžas un trūkumi:

Priekšrocības:
Efektivitāte: AI var apstrādāt lielas daudzības datu daudz ātrāk nekā cilvēki, potenciāli ātri un precīzi identificējot draudus plašos datu kopumos.
Precizitāte: Pareizi kalibrētas AI sistēmas var nodrošināt augstāku precizitāti mērķēšanā, potenciāli samazinot nešķietamu uzbrukumu biežumu.

Trūkumi:
Cilvēku risks: Atkarība no AI mērķēšanā apdzīvotā vietā kā Gazā palielina risku uz civiliedzīvotāju upuriem, it sevišķi, ja AI nepareizi klasificē mērķus.
Dehumanizācija: AI izmantošana kaujās var novest pie konflikta dehumanizācijas, kur lēmumi, kuriem ir nopietnas morālas un juridiskas sekas, tiek pieņemti ar algoritmu, nevis cilvēku spriedzi.
Kļūdas izplatība: Ja AI pamatējo datus vai algoritmus ir kļūdaini, šīs kļūdas var tikt izplatītas masu mērogā, potenciāli novedot pie nepareizas mērķēšanas un nevainīgu dzīvību zaudēšanas.

Lai saņemtu papildinformāciju par šo tēmu un nodrošinātu piekļuvi uzticamai un aktuālai informācijai, apmeklējiet oficiālo Izraēlas Aizsardzības spēku oficiālo tīmekļa vietni un Apvienoto Nāciju, kas bieži pievēršas jautājumiem par starptautiskiem konfliktiem un jaunākajām tehnoloģijām kaujās.

The source of the article is from the blog smartphonemagazine.nl

Privacy policy
Contact