Израильская система искусственного интеллекта вызывает этические опасения в конфликте

Вооруженные силы Израиля ввели военную автоматизацию на беспрецедентном уровне, реализовав программу искусственного интеллекта (ИИ) под названием Лаванда. Эта система разработана для выбора целей для бомбардировок, задача, требующая традиционного тщательного подтверждения человеком, чтобы обеспечить легитимность. Лаванда за первые недели пометила 37 000 палестинцев и связана с пособничеством по крайней мере 15 000 смертей с момента своего создания во время вторжения в Газу, что было выявлено в расследованиях израильских журналистских изданий и газеты The Guardian.

Вокруг Лаванды возник спор, так как военные командиры получили критику за то, что они относятся к принимаемым системой рекомендациям по жизни и смерти как к простому статистическому анализу, с допустимыми параметрами приемлемого количества побочных жертв, позволяющими погибнуть многим гражданским лицам относительно высокопоставленных целей. Внедрение системы привело к уничтожению нескольких зданий во время ночных ударов, что значительно увеличило количество гражданских жертв.

Несмотря на чувствительный характер выбора человека в качестве целей, Израильские оборонные силы (IDF) отрицают утверждения о том, что машина автономно выявляет террористов. Официальные заявления утверждают, что информационные системы, такие как Лаванда, являются только инструментами, помогающими аналитикам в определении целей, хотя источники указывают на то, что офицеры в основном просто проверяют предложения системы без дополнительных проверок.

Критерии, использованные Лавандой для связывания лиц с ХАМАС или Исламским Джихадом, остаются неясными, за исключением нескольких факторов, таких как частые смены телефонов или мужской пол. Как и любая система искусственного интеллекта, Лаванда функционирует на вероятностной основе и не является непогрешимой, с оценочной ошибкой в выборе целей около 10%, что способствует высокому числу потерь невинных жизней палестинцев.

Другая система искусственного интеллекта под названием «Где папа?» помогает отслеживать цели для ударов, когда они дома, а «Евангелие» определяет здания, предположительно используемые боевиками ХАМАСа. Тем временем юридические эксперты обсуждают, соответствует ли использование искусственного интеллекта в таких приложениях международному гуманитарному праву, дискуссию дальше разжигает отсутствие проверки человеком в быстром процессе наведения на цель.

Ключевые проблемы и споры:

— Одной из значительных проблем является этическое последствие вовлечения системы искусственного интеллекта в принятие решений, имеющих жизненно важные последствия. Основываясь на алгоритмах для определения целей в зонах конфликта, возникают вопросы о ответственности и соблюдении международного гуманитарного права, которое ограничивает применение силы к боевикам и военным объектам и стремится к минимизации ущерба для гражданских лиц.
— Другим спорным вопросом является степень прозрачности, касающейся критериев, используемых системами искусственного интеллекта, таких как Лаванда, для идентификации целей. Недостаточная ясность этих критериев выбора может привести к недоверию и опасениям относительно справедливости и возможности дискриминации или неправомерного наведения целей на основе пристрастных данных или алгоритмов.
— Сообщенный высокий уровень ошибок в выборе целей Лавандой, оцененный в 10%, вызывает серьезные опасения относительно вероятности гибели гражданских лиц, что в конечном итоге может привести к военным преступлениям согласно международному праву.
— Также существует проблема автоматизированного предвзятости, когда человеческие операторы могут слишком сильно полагаться на рекомендации системы искусственного интеллекта без достаточного критического анализа, что потенциально увеличивает риск ошибок.
— Использование систем искусственного интеллекта в военных операциях, таких как Лаванда, «Где папа?», и «Евангелие», пересекается с текущими дебатами о разработке и применении систем смертоносного автономного оружия (LAWS), которые стали предметом международных дискуссий относительно их регулирования или запрета.

Преимущества:

— Системы искусственного интеллекта, такие как Лаванда, могут обрабатывать огромные объемы данных намного быстрее, чем человеческие аналитики, что может быть критично для выявления и реагирования на угрозы в реальном времени в сложной боевой среде.

Недостатки:

— Возможная потеря надзора человека может привести к этическим нарушениям, особенно когда процесс принятия решений лишен достаточной прозрачности.
— Использование искусственного интеллекта для выбора целей может привести к ошибкам, которые могут привести к гибели гражданских лиц и разрушению гражданской инфраструктуры, возбуждая правовые и моральные вопросы.
— Такие системы могут подвергаться предвзятости, присутствующей в данных или алгоритмах, которые они используют, и эта предвзятость может привести к несправедливому наведению целей и неблагоприятным гуманитарным последствиям.

Если вас интересует дальнейшее изучение использования искусственного интеллекта в военных действиях и поднимаемые этим этические вопросы, рассмотрите посещение авторитетных источников, таких как Human Rights Watch, который часто обсуждает последствия развивающихся технологий в военных операциях, или Международный Комитет Красного Креста, который освещает проблемы, связанные с международным гуманитарным правом.

The source of the article is from the blog qhubo.com.ni

Privacy policy
Contact