Роль и контроверсии искусственного интеллекта в израильских военных операциях

В последних новостях использование Израилем программного обеспечения искусственного интеллекта (ИИ) под названием Lavender вызвало возмущение. Это программное обеспечение используется для сбора и анализа информации о предполагаемых целях ХАМАС перед военными операциями. В то время как израильские оборонные силы (IDF) отстаивают использование этой технологии как полезного инструмента, критики утверждают, что оно могло оказать значительное влияние на масштаб разрушений в Газе.

Контроверсии вокруг Lavender начались с доклада в газете Guardian, который раскрывал, что Израиль использовал базу данных ИИ для идентификации 37 000 предполагаемых целей ХАМАС. Левоориентированный израильский журнал +972 сотрудничал с Local Call для публикации статьи, которая дополнительно пролила свет на использование Израилем ИИ. По данным +972, Lavender сыграл ключевую роль в бомбардировке палестинцев, причём военные относились к результатам работы машины ИИ как к человеческому решению.

Washington Post также затронул доклад Guardian, предполагая, что использование технологии ИИ могло объяснить обширные разрушения, осуществленные во время конфликта. Озабоченность использованием Lavender побудила Соединённые Штаты провести расследование по этому вопросу, и пресс-секретарь Совета национальной безопасности Белого дома Джон Кирби подтвердил, что они его проводят.

В ответ на контроверсии пресс-секретарь IDF Надав Шошани защищал использование Lavender в социальных сетях. Он опровергал статью Guardian, описывая базу данных ИИ как простой инструмент для проверки существующей информации о деятелях террористических организаций. Шошани подчеркнул, что база данных не является списком деятелей, подлежащих атаке, а лишь служит как вспомогательное средство для человеческого анализа.

Тем не менее, критики утверждают, что эта дистинкция не имеет значения, поскольку Израиль признаёт себе право атаковать любую цель ХАМАС. Следовательно, база данных, содержащая информацию о предполагаемых членах ХАМАС, фактически служит списком потенциальных целей. Озабоченность простирается за пределы использования технологии ИИ самой по себе, вызывая вопросы о значимости разведывательных офицеров в процессе выбора целей.

Согласно интервью Guardian с израильскими разведчиками, некоторые выразили сомнения в ценности своих собственных ролей в процессе выбора целей. Один офицер признал, что тратил лишь 20 секунд на каждую цель, указывая на то, что его вклад был минимален и в основном служил как печать одобрения. Другой офицер рассказал о постоянном давлении со стороны начальства на нахождение большего количества целей.

Контроверсия вокруг роли ИИ в израильских военных операциях подчёркивает сложности и этические соображения, связанные с использованием такой технологии в контексте вооружённых конфликтов. В то время как IDF подчёркивает, что человеческий анализ остаётся важным, критики утверждают, что увеличивающаяся зависимость от ИИ может подорвать процесс принятия решений и усугубить разрушительные последствия военных действий.

Часто задаваемые вопросы

The source of the article is from the blog rugbynews.at

Privacy policy
Contact