AI Háború Valósága: Az Váratlan Következmények Felfedése

Az Izraeli hadsereg által nemrégen alkalmazott mesterséges intelligencia (AI) rendszer, a Lavender használata a potenciális gázai légitámadások célpontjainak listáinak előállítására felhívta a figyelmet a katonai AI következményeire. Egy nonprofit kiadvány, a +972 Magazine által közzétett jelentés szerint a Lavender néven ismert rendszert más AI rendszerekkel együtt használták gyanúsított lázadók célpontokká történő jelölésére és meggyilkolására, jelentős civil áldozatokat okozva.

Bár az Izraeli Védelmi Erők tagadja a jelentésben foglaltak egy részét, állítva, hogy a Lavender nem AI rendszer, hanem egy adatbázis az információs források összekapcsolásához, más források megerősítik az AI használatát az izraeli katonai műveletek során. 2021-ben a Jerusalem Post beszámolt róla, hogy Izrael mesterséges tanulási rendszereket alkalmazott célpontok azonosítására egy konfliktus során a Hamasszal. Ezen felül, egy korábbi +972 jelentés említést tesz egy Habsora nevű AI rendszerről, amely automatikusan azonosítja a potenciális lázadó épületeket és létesítményeket a bombázás céljára.

Az AI lehetséges alkalmazása a katonaságban nem csak Izraelre korlátozódik. Olyan országok, mint az Egyesült Államok és Kína is befektetnek AI rendszerekbe katonai célokra. A támogatók szerint az AI gyorsabb döntéshozatalt, nagyobb pontosságot és csökkentett áldozatokat eredményezhet. Azonban aggodalmak vannak a humán felügyelet hiányával és a lehetőségét az AI által generált célpontok hibáira.

A legújabb +972 jelentés szerint a Lavender automatizálja a célpont-azonosítási folyamatot, de lazaabb kritériumokkal és alacsonyabb bizonyítéki szabványokkal rendelkezhet, ami hibákhoz vezethet körülbelül 10% -ban az esetekben. A jelentés azt is sugallja, hogy az otthonokban található célpontokra először bombázásban kerül sor, civil áldozatokat okozva.

Az etikai és jogi aggályok, amelyek a katonai AI-t övezik, nagyrészt figyelmen kívül maradtak. Jelenleg nincsenek általánosan elfogadott vagy jogilag kötelező szabályok az alkalmazásáról. Azonban némi haladás történt ezeknek az aggodalmaknak a kezelésében. ENSZ az „önálló, halálos fegyverrendszerek” használatáról folytatott vitákat tartott, és az ENSZ Közgyűlése nemrégiben egy olyan tervezet mellett szavazott, amely kimondja, hogy az algoritmusok ne legyenek teljes mértékben az eldöntendő döntések felett, amelyek a halálba vezetnek. Az Egyesült Államok is kiadott egy nyilatkozatot az AI és az autonómia felelős katonai felhasználásáról, amelyet számos ország támogat.

Ezek ellenére, a nemzetközi szabályozások a katonai AI alkalmazásra vonatkozóan küszködnek a technológia gyors fejlődésével tartani lépést. Ahogy a világ katonaságai az AI rendszereket fogadják el a háborús műveletekhez, azoknak a váratlan következménye és a potenciális humanitárius károk egyre nyilvánvalóbbá válnak.

Az AI által lehetővé tett precíziós háború ígérete még mindig nem teljesült be. A gázai AI rendszerek felhasználásáról szóló jelentések szemléltetik az AI rendszerek kizárólag algoritmusokra támaszkodó célpontdöntések korlátait és váratlan következményeit. Elengedhetetlen az etikával és morállal kapcsolatos dilemma kezelése a katonai AI területén, biztosítva, hogy az emberi felügyelet és az intézményi szabályozások megakadályozzák ennek a hatalmas technológiának a visszaélését.

Gyakran Ismételt Kérdések

1. Mi az a Lavender?
A Lavender egy mesterséges intelligenciát (AI) alkalmazó rendszer, amelyet az izraeli hadsereg használ potenciális gázai légitámadások célpontjainak listáinak előállítására.

2. Az AI használata a katonaságban csak Izraelre korlátozódik?
Nem, más országok, például az Egyesült Államok és Kína is befektetnek AI rendszerekbe katonai célokra.

3. Milyen aggályok vannak a katonai AI-t illetően?
Aggodalmak vannak a humán felügyelet hiánya, az AI által generált célpontok potenciális hibái, valamint az etikai és morális következményei miatt, amelyek az AI rendszerek hadviselésben való felhasználásával járnak.

4. Vannak-e nemzetközi szabályozások a katonai AI alkalmazására vonatkozóan?
Jelenleg nincsenek világszerte elfogadott, vagy jogilag kötelező szabályok a katonai AI-ra vonatkozóan. ENSZ és egyes nemzetek erőfeszítéseket tesznek ezeknek az aggodalmaknak a kezelésére.

5. Milyen váratlan következményei lehetnek annak, ha kizárólag az AI-t használják célpontdöntésekhez?
A jelentések szerint az AI rendszerek használata célpontdöntésekhez hibákat, laza kritériumokat és alacsonyabb bizonyítéki szabványokat eredményezhet, ami civil áldozatokhoz és humanitárius károkhoz vezethet.

The source of the article is from the blog elblog.pl

Privacy policy
Contact