Вплив штучного інтелекту на цивільних жертв військових дій

Використання штучного інтелекту (ШІ) стає все більш поширеним у військових операціях, але постають питання стосовно його впливу на цивільних жертв. Наприклад, війська Ізраїлю використовують інструмент ШІ під назвою Lavender для вибору об’єктів авіаударів у секторі Газа. Однак, згідно з розслідуванням журналів, базованих в Ізраїлі, +972 Magazine та Local Call, ця система жертвує точністю на користь швидкості, що призводить до загибелі тисяч цивільних осіб.

Система Lavender була розроблена після нападів ХАМАС 7 жовтня з метою ідентифікації та санкціонування ліквідації підозрюваних “бойовиків ХАМАСу” у секторі Газа. Ізраїльські війська відкидали існування списку для ліквідації, але визнали використання Lavender як інструмент для аналітиків у процесі ідентифікації об’єктів. Однак розвідники Ізраїлю зізналися, що їм не потрібно було незалежно перевіряти об’єкти, обрані Lavender, фактично виступаючи лише як печатки для рішень машини.

Для створення системи Lavender використовувались дані про відомі оперативників ХАМАСу та палестинських джихадистів, а також про осіб, що м’яко пов’язані з ХАМАСом. Система була навчена визначати ознаки, пов’язані з оперативниками ХАМАСу, такі як їхнє належність до певних груп WhatsApp або часті зміни мобільних телефонів або адрес. На основі цих ознак палестинці у секторі Газа були ранжовані за шкалою від 1 до 100, і ті, хто досягали певного порогу, були позначені як об’єкти для ударів. Система Lavender похвалилася близько 90-відсотковою точністю, але все одно призводила до невірного ідентифікування осіб, які не були членами військового крила ХАМАСу.

Одним з тривожних аспектів системи Lavender була її неуважність до цивільних жертв. Розвідникам було надано велику свободу щодо колатеральних збитків, з дозволом вбивати до 15-20 цивільних осіб за кожним низькорівневим оперативником ХАМАСу. Для високопоставлених членів ХАМАСу, передбачалося санкціонування “сотень” колатеральних цивільних жертв. Більше того, найчастіше обстрілювання домівок підозрюваних оперативників ХАМАСу за допомогою системи “Де тато?” призводило до бомбардування цілих сімей, навіть без перевірки, чи дійсно присутні були об’єкти. Цей нехтування життям цивільних осіб підкреслює вагомі етичні питання, пов’язані з використанням ШІ у війні.

Система Lavender та подібні технології, що використовуються Ізраїлем у секторі Газа та Західному березі, є тривожними, особливо враховуючи повідомлення, що ізраїльські оборонні стартапи намагаються експортувати свої технології, що працюють на ШІ, за кордон. Вплив на цивільне населення, а також потенціал недопущення або зловживання цими інструментами, породжує серйозні питання щодо їх етичних наслідків.

Часто задавані питання

Що таке система Lavender?
Система Lavender – це інструмент штучного інтелекту, який використовується військами Ізраїлю для ідентифікації та прицілу на підозрюваних бойовиків ХАМАСу в секторі Газа.

Як була навчена система Lavender?
Система Lavender була навчена за допомогою даних про відомих оперативників ХАМАСу та палестинських джихадистів, а також даних про осіб, які м’яко пов’язані з ХАМАСом. Вона була навчена визначати ознаки, пов’язані з оперативниками ХАМАСу, такі як їхня належність до певних груп WhatsApp або стандартні зміни мобільних телефонів і адрес.

Яка точність системи Lavender?
Система Lavender володіла точністю приблизно 90 відсотків, що означає, що приблизно 10 відсотків тих, кого визначено як оперативників ХАМАСу, насправді не були членами військового крила ХАМАСу.

Які наслідки використання системи Lavender?
Використання системи Lavender призводило до смерті тисяч цивільних осіб в секторі Газа, оскільки колатеральний збиток часто ігнорувався на користь прицілювання на підозрюваних бойовиків ХАМАСу.

Які питання породжують використання ШІ у війні?
Питання, що стосуються використання ШІ у війні, включають у себе можливість невірного визначення цілей, ігнорування цивільних жертв та етичні наслідки віддачі рішень на відповідальність машинам.

У висновку, використання ШІ в військових операціях, як це ілюструє система Lavender, ставить серйозні питання щодо впливу на цивільних жертв та етичних наслідків віддачі рішень на ШІ-технології. Необхідно, щоб уряди та військові організації ретельно розглядали потенційні ризики та забезпечували, щоб ці технології використовувалися відповідальним та етичним способом.

Для отримання додаткової інформації про це [див. тут](a href=”https://www.example.com”).

The source of the article is from the blog procarsrl.com.ar

Privacy policy
Contact