Čo nás skutočne ničí: Impact umelou inteligenciou v konfliktoch

Umelá inteligencia (AI) vo vojnách je témou intenzívnych obáv, pretože vyvoláva otázky o presunutí ľudskej vôle a agenty umelými inteligentnými zabíjacími strojmi. Avšak, AI-riadené automatizované systémy v konvenčnom boji, ktoré operujú ľudia, už sú nasadené. Presvedčenie, že autonómne systémy zastavia ľudské agentúry, je klamlivé, pretože sľub presnosti v modernom bojovníctve vychádza z toho, že počet civilných obetí sa znižuje, ale zabíjacií potenciál proti bojovníkom sa zvyšuje.

Nedávna štúdia sa zameriava na izraelské využívanie umelej inteligencie vo vojne, konkrétne v pásme Gazy. Izraelské obranné sily začlenili AI do svojich operácií na identifikáciu a likvidáciu cieľov. Avšak výsledok nebol presný alebo morálne informovaný. Namiesto obmedzovania škody na civilistoch, použitie AI Izraelom sa zdá, že rozšírilo cieľové súpravy a potenciálne viedlo k maximálnym škodám.

Vyšetrovanie sa odvoláva na publikáciu s názvom „Ľudsko-strojový tím: Ako vytvoriť ľudskú a umelej inteligenciu, ktorá zmení náš svet“, ktorej autorom je brigádny generál Y.S., veliteľ izraelskej jednotky 8200. Publikácia propaguje systém, ktorý rýchlo generuje tisíce potenciálnych cieľov počas konfliktu, a vyžaduje tak schválenie a potvrdenie ľudí.

Spoločné vyšetrovanie +972 a Local Call odhalilo pokročilú etapu vývoja tohto systému, známeho ako „Lavender“ izraelským silám. Lavender presiahne predchádzajúce systémy AI tým, že identifikuje vojenské budovy a štruktúry používané militantmi. Avšak aj tento druh identifikácie nepodarilo sa obmedziť počet obetí, vedúc k tomu, čo niektorí opisujú ako „masovú fabriku atentátov“.

Šesť izraelských vyšetrovateľov odhalilo, že Lavender zohral centrálnu úlohu v neprecedentnom bombardovaní Palestínčanov, najmä v raných štádiách konfliktu. AI stroj efektívne znižoval ľudský prvok a zároveň prenášal fiktívny pocit ľudskej dôveryhodnosti výsledkov cieľovania.

Vo východiskových týždňoch vojny silne záviseli IDF na Lavender, identifikovali približne 37 000 Palestínčanov ako potenciálnych bojovníkov na možné nálety. Toto označilo posun od predchádzajúcej doktríny zameranej na cieľovanie konkrétnych seniorov v ozbrojených jednotkách. Pod novou politikou boli všetci členovia Hamásu v jeho vojenskom krídle, bez ohľadu na hodnosť, označení za ľudské ciele.

Dôstojníci mali rozsiahle právomoci prijímať zoznamy na zabitie bez kontroly, pričom sa im na každý cieľ pred povolením náletov pridelilo iba 20 sekúnd. Povolenie bolo udelené napriek tomu, že bola známa chybovosť v zameraní, prípadne označila osoby s voľným alebo žiadnym spojením s ozbrojenými skupinami.

Okrem toho systém Lavender pracoval v spojení s ďalšou automatizovanou platformou nazvanou „Kde je otecko?“. Táto platforma sledovala zoči-za vybraných jednotlivcov až po ich rodinné ​​obydlia, ktoré boli následne zbúrané. Výsledkom bolo veľké množstvo civilných obetí, pričom tisíce Palestínčanov, vrátane žien, detí a nebojovníkov, boli zabití pri izraelských náletech v raných štádiách konfliktu.

Jeden dôstojník vyjadril hrôzostrašnú realitu, že zabiť členov Hamásu v vojenských zariadeniach alebo počas vojenskej aktivity nebolo veľmi zaujímavé. Namiesto toho sa zameriavalo hlavne na bombardovanie ich domovov, pretože sa ukázalo, že to je jednoduchšia úloha. Systém Lavender bol špeciálne navrhnutý pre takéto situácie.

Použitie tohto systému zahŕňalo chladné a hrozné výpočty. Dvaja zdroje odhalili, že počas počiatočných týždňov vojny dal IDF súhlas na zabitie až 15 alebo 20 civilistov za každého mladšieho člena Hamásu označeného systémom Lavender. V prípade vyšších funkcionárov Hamásu sa počet schválených smrteľných prípadov mohol dostať až na 100 civilistov.

V odpovedi na tieto odhalenia IDF trvá na tom, že nevyužíva AI systém na identifikáciu teroristov alebo predpovedanie statusu jednotlivca ako teroristu. Namiesto toho tvrdí, že databáza si krížovo overuje informačné zdroje o vojenských členoch teroristických organizácií.

Generálny tajomník OSN António Guterres prejavil hlboké znepokojenie nad správami o použití Izraelu AI na identifikáciu cieľov, najmä v husto obývaných oblastiach. Použitie AI týmto spôsobom viedlo k vysokému počtu civilných obetí, ktoré vyvolali etické a morálne otázky o vplyve AI-riadeného konfliktu.

FAQ:

Q: Čo je systém Lavender?
A: Systém Lavender je umelej inteligencie vytvorený izraelskými obrannými silami na identifikáciu cieľov vo vojnách.

Q: Ako presný je systém Lavender pri zameraní?
A: Systém Lavender sa ukázal ako nepresný v zameraní, keď označuje osoby, ktoré majú slabé alebo žiadne pripojenie k ozbrojeným skupinám.

Q: Ako boli ovplyvnené civilné obete použitím Lavender?
A: Použitie Lavendera spolu s inými platformami AI viedlo k významným civilným obetiam, najmä v Gaze, počas počiatočných štádií konfliktu.

Zdroje:
– +972: [URL]
– Local Call: [URL]
– Times of Israel: [URL]

The source of the article is from the blog j6simracing.com.br

Privacy policy
Contact