Új technológia a hadviselésben: az mesterséges intelligencia aktuális kihívásokat vet fel

Az mesterséges intelligencia (AI) egyre elterjedtebbé vált a hadműveletek során, de aggodalmak merültek fel annak hatásával kapcsolatban a civil áldozatokra. Izrael hadserege például egy olyan AI eszközt, a Lavender nevűt használt, hogy segítsen a Gázában végrehajtott bombázási célpontok kiválasztásában. Azonban egy Izraelben székelő +972 Magazine és Local Call által végzett vizsgálat szerint ez a rendszer azért áldoz fel pontosságot a sebesség javára, ami ezrenkénti több civil halálát eredményezte.

 

A Lavender rendszert a Hamas 10-én végrehajtott támadásai után fejlesztették ki, azzal a céllal, hogy azonosítsa és engedélyezze a gyanúsított „Hamas fegyveresek” megölését Gázában. Az izraeli hadsereg tagadta egy megölési listában való részvételt, de elismerte a Lavender használatát egy olyan eszközként, amelyet az analitikusok a célpont azonosítási folyamatban használnak. Azonban izraeli hírszerző tisztviselők elárulták, hogy nem voltak kötelesek függetlenül ellenőrizni a Lavender által kiválasztott célpontokat, ami gyakorlatilag annyit jelentett, hogy csupán gumipecsétnek számítottak a gép döntéseinek tekintetében.

 

A Lavender rendszer megépítéséhez olyan adatokat használtak fel, amelyek ismert Hamas és Palesztin Iszlám Dzsihád működőket tartalmaztak, valamint olyan adatokat, amelyek olyan személyekkel voltak laza kapcsolatban, akik a Hamasszal voltak kapcsolatban. A rendszert arra tanították, hogy azonosítsa a Hamasszal kapcsolatos működőkhez kapcsolódó funkciókat, mint például az egyes WhatsApp csoportokhoz való tartozást vagy a mobiltelefonok és címek gyakori cseréjének szokását. Ezek alapján a Gázában élő palesztinokat 1-től 100-ig terjedő skálán rangsorolták, a bizonyos küszöböt elért személyeket pedig megtámadandó célpontnak jelölték. A Lavender rendszer körülbelül 90%-os pontossággal büszkélkedhetett, mégis olyan személyek téves azonosításához vezetett, akik nem voltak a Hamas katonai szárnyának tagjai.

 

Az egyik zavarba ejtő aspektusa a Lavender rendszernek az volt, hogy figyelmen kívül hagyta a civil áldozatokat. A hírszerző tiszteknek jelentős mozgástér állt rendelkezésükre a mellékhatások tekintetében, jogosultságot kaptak akár 15 vagy 20 civil megölésére minden alacsonyabb szintű Hamas működő célpontjára. A felső Hamas tisztségviselők esetében „százak” áldozatokat is szankcionáltak. Ráadásul a feltételezett Hamas működők otthonainak célba vétele a „Hol van Apa?” rendszer felhasználásával gyakran vezetett egész családok bombázásához, még akkor is, ha nem ellenőrizték, hogy a célpontok valóban jelen vannak-e. Ez az érzéketlenség a civil áldozatok életének hangsúlyozza azon etikai aggodalmakat, amelyek az AI alkalmazásával a hadviselésben kapcsolatosak.

 

A Lavender rendszer és az Izrael által a Gázai övezetben és a Nyugati-parton használt hasonló technológiák aggasztóak, különösen figyelembe véve a jelentéseket arról, hogy az izraeli védelmi startupok próbálják exportálni az AI technológiájukat külföldre. A civil lakosság hatásai és ezeknek az eszközöknek a visszaélésekhez, vagy visszaélésekhez való potenciálja komoly kérdéseket vet fel az etikai következményekkel kapcsolatban.

 

GYIK

Mi az a Lavender rendszer?
A Lavender rendszer egy mesterséges intelligencia eszköz, amelyet az izraeli hadsereg használ a Gázában található gyanúsított Hamas fegyveresek azonosítására és megcélozására.

Hogyan lett tanítva a Lavender rendszer?
A Lavender rendszert olyan adatokkal tanították meg, amelyek ismert Hamas és Palesztin Iszlám Dzsihád működőket tartalmaztak, valamint olyan személyekkel laza kapcsolatban voltak a Hamasszal. Azokra a funkciókra tanították a rendszert, amelyek a Hamas működőkhez társíthatók, például az adott WhatsApp csoportokkal való kapcsolatukra vagy a címek és mobiltelefonok gyakori cseréjére vonatkozó szokásaira.

Milyen pontossági aránnyal büszkélkedhet a Lavender rendszer?
A Lavender rendszer körülbelül 90%-os pontossággal büszkélkedhetett, ami azt jelenti, hogy a Hamasszal azonosítottak körülbelül 10%-a valójában nem volt a Hamas katonai szárnyának tagja.

Milyen következményei voltak a Lavender rendszer használatának?
A Lavender rendszere használata több ezer civil halálát eredményezte Gázában, mivel az oldalhatásokat gyakran figyelmen kívül hagyták a gyanúsított Hamas működők megcélzására irányuló törekvések érdekében.

Milyen aggodalmak merülnek fel az AI használatával kapcsolatban a hadviselés során?
Az AI használatával kapcsolatos aggodalmak közé tartozik a célpontok helytelen azonosításának potenciálja, a civil áldozatok figyelmen kívül hagyása és az etikai kérdések, amelyek abból adódnak, hogy gépekre hagyatkozunk élet-halál döntésekben.

Összefoglalva, az mesterséges intelligencia használata a hadműveletek során, amint azt a Lavender rendszer is tükrözi, komoly aggodalmakat vet fel azokra a hatásokra, amelyeket a civil áldozatokra gyakorolhat, és az etikai következményekre. Kiemelten fontos, hogy a kormányok és a katonai szervezetek alaposan mérlegeljék a lehetséges kockázatokat, és gondoskodjanak arról, hogy ezeket a technológiákat felelősen és etikusan használják.

További információkért kattintson ide.

The source of the article is from the blog elperiodicodearanjuez.es

Privacy policy
Contact