Исследование применения искусственного интеллекта в израильской армии вызывает серьезные вопросы

В свежем исследовании было обнаружено, что израильская армия использует технологии искусственного интеллекта (ИИ) для выявления целей бомбардировок в секторе Газа. Раскрытие этой информации, сделанное журналами +972 Magazine и Local Call, вызвало серьезные опасения относительно точности и этических последствий тяжелой зависимости от ИИ для таких целей. По словам шести израильских разведчиков, участвующих в предполагаемой программе, инструмент на основе ИИ под названием «Лаванда» имеет заявленный уровень ошибок в 10%.

В то время как израильские Оборонные силы (IDF) признали наличие инструмента, они отрицают использование ИИ для идентификации подозреваемых террористов. Однако они признали, что информационные системы служат инструментами для аналитиков в процессе идентификации целей. IDF подчеркивает свою приверженность минимизации вреда гражданскому населению, заявляя, что аналитики должны независимо изучать и проверять выявленные цели в соответствии с международным правом и директивами IDF.

В отличие от утверждений IDF, один из участников программы раскрыл, что человеческий персонал часто играл минимальную роль и проводил только около 20 секунд на оценку каждой цели перед согласованием ударов. Это вызывает опасения относительно уровня внимательности и учета потенциальных гражданских жертв.

Исследование пришло в момент усиления международной проверки военной кампании Израиля. Инциденты с целенаправленными авиаударами, приводящими к гибели иностранных сотрудников гуманитарных организаций, привлекли значительное внимание. Министерство здравоохранения сектора Газа сообщило о более чем 32 916 погибших из-за осады Газы, что привело к гуманитарному кризису и массовому голоду, затрагивающему треть населения северного сектора, как сообщает Организация Объединенных Наций.

Юваль Авраам, автор исследования, ранее пролил свет на тяжелую зависимость Израиля от ИИ при генерации целей с минимальным участием человека. Однако израильская армия отрицает использование системы ИИ для идентификации террористов, признавая при этом использование баз данных для кросс-ссылок разведывательных источников о военнослужащих террористических организаций.

Исследование также показало, что израильская армия систематически осуществляла ночные атаки на цели в жилых домах, что часто приводило к гибели невинных палестинцев, включая женщин и детей. Во время нацеливания на предполагаемых младших боевиков предпочтение отдавалось неуправляемым «глухим» бомбам, которые могут причинить значительный коллатеральный ущерб.

Согласно сообщению CNN, почти половина боеприпасов, сброшенных на сектор Газы в рамках недавней кампании, являлись неуправляемыми глухими бомбами. Это создает большую угрозу для гражданского населения, особенно в плотно населенных районах, таких как Газа. IDF утверждает, что удары наносятся только в случае, если предполагаемый коллатеральный ущерб не является избыточным по отношению к военному преимуществу, и что предпринимаются усилия по минимизации вреда гражданским лицам.

Применение искусственного интеллекта в процессе нацеливания израильской армии вызывает важные этические вопросы. Существует необходимость в большей прозрачности, ответственности и участии человека в процессе принятия решений для обеспечения защиты невинных жизней. Международное сообщество должно вступить в диалог и провести анализ, чтобы решить эти проблемы и обеспечить соблюдение принципов гуманитарного права.

Что такое искусственный интеллект (ИИ)?

ИИ относится к разработке интеллектуальных машин, способных выполнять задачи, которые обычно требуют человеческого интеллекта, такие как визуальное восприятие, распознавание речи, принятие решений и решение проблем.

Что такое неуправляемые «глухие» бомбы?

Неуправляемые «глухие» бомбы — это обычные взрывные устройства, не имеющие систем наведения и опирающиеся на гравитацию для своей траектории. Эти бомбы имеют более высокую вероятность причинения коллатерального ущерба и вреда гражданскому населению из-за их неточного характера.

Какова цель процесса нацеливания израильской армии?

Целью процесса нацеливания израильской армии является выявление и удар по целям, связанным с террористическими организациями, с целью нарушения их деятельности и обеспечения национальной безопасности. Однако возникли опасения относительно точности идентификации целей и потенциального ущерба для гражданских лиц.

Внедрение искусственного интеллекта (ИИ) в процесс нацеливания израильской армии вызывает опасения не только относительно точности и проблем этического характера тяжелой зависимости от ИИ, но и по поводу потенциального ущерба для гражданских жизней. Это исследование приходит в момент, когда международное внимание к военной кампании Израиля усиливается.

По материалам: +972 Magazine, Local Call.

Privacy policy
Contact