Розкриття користування штучним інтелектом для метання вогню викликає етичні питання у конфлікті на Газа.

Останні викриття розкрили тривожні тактики в конфліктній смузі Газа. Розслідувальні висновки журналів +972 та “Sichá Mekomit” привернули увагу до передових стратегій ізраїльської армії, які значно покладаються на штучний інтелект. Системи штучного інтелекту “Lavender” та “Де тато?” використовувалися для складання списків нападників у Газі з мінімальним контролем людини.

Ці алгоритми оцінюють дані про всю цивільну популяцію, що збільшує ймовірність помилок з фатальними наслідками. Програма “Lavender” зокрема створює список цілей для потенційних агентів ХАМАСу, яких слід переслідувати з практично автоматичним схваленням військових ударів. Звіти свідчать про те, що середній час перегляду людиною становить всього 20 секунд до схвалення удару.

Контроверсійний метод призвів до руйнівної кількості жертв серед палестинського населення в Газі, з понад 15 000 постраждалими, майже половина з яких постраждала протягом перших шести тижнів війни. За цим тривожним показником смертності стоїть жахливий протокол: збройні сили, очевидно, приймали значні втрати серед цивільного населення для ліквідації осіб меншої важливості, а показники втрат збільшувалися, коли втручалися об’єкти вищої цінності.

Ці процедури та залежність від “глухих бомб”, які не мають точності й завдають широкомасштабних руйнувань, призвели до непропорційних шкідливих наслідків для некомбатантів, включаючи багатьох жінок і дітей.

Використання штучного інтелекту у війні створює актуальні моральні й етичні питання. Оскільки такі технології стають більш поширеними, зростає вимога до жорсткого міжнародного регулювання та нагляду. Розкриття є нагадуванням про людську вартість конфліктів і необхідність пильності для запобігання подібним наслідкам у майбутньому.

The source of the article is from the blog radiohotmusic.it

Privacy policy
Contact