Използването на AI като оръжие в израелските военни операции

В последно време израелското използване на софтуер за изкуствен интелект (AI) Lavender е обект на внимание. Софтуерът се използва за събиране и анализиране на информация за предполагаемите цели на Хамас преди военните операции. Въпреки че Израелските отбрани сили (IDF) защитават използването на тази технология като полезен инструмент, критиците твърдят, че тя може да е имала значително влияние върху мащаба на разрушенията в Газа.

Контроверсията около Lavender започна с доклад на вестник The Guardian, който разкри, че Израел използва база данни с изкуствен интелект, за да идентифицира 37 000 предполагаеми цели на Хамас. Левитиращият израелски списание +972 си сътрудничеше с Local Call да публикува статия, осветляваща използването на AI от Израел. Според +972, Lavender играеше решаваща роля в бомбардировката на палестинци, като военните третираха изхода на машината за изкуствен интелект така, сякаш това е човешко решение.

The Washington Post също реагира на доклада на The Guardian, като предложи, че използването на AI технология може да обясни обширното разрушение, забелязано по време на конфликта. Загрижеността около използването на Lavender от Израел подтикна САЩ да разследват въпроса, като официалният представител по националната сигурност на Белия дом Джон Кърби потвърди, че разглеждат въпроса.

По отношение на контроверсията, представителят на IDF Надав Шошани защити използването на Lavender в социалните мрежи. Той отхвърли статията на The Guardian, определяйки базата данни с изкуствен интелект като просто инструмент за проверяване на съществуваща информация за оперативни лица в терористични организации. Шошани подчерта, че базата данни не е списък с оперативни лица, които могат да бъдат атакувани, а по-скоро помощ за човешки анализ.

Въпреки това критиците твърдят, че тази разлика е незначителна, тъй като Израел твърди правото да напада всяка цел на Хамас. Следователно, база данни с информация за предполагаеми членове на Хамас фактически служи като списък на потенциални цели. Загриженостите надхвърлят използването на AI технологията самата по себе си, вдигайки въпроси за значимостта на хуманните ренде в процеса на избор на цел.

Според интервютата на The Guardian с израелски разузнавателни служители, някои изразиха съмнения относно стойността на своите роли в процеса на избор на цел. Един служител призна, че отделя само 20 секунди за всяка цел, предлагайки, че тяхното принос е минимален и преди всичко служи като печат на одобрение. Друг служител разкри постоянното натискане от горните за да идентифицират повече цели.

Контроверсията около ролята на AI в израелските военни операции подчертава сложностите и етичните предвидения, свързани с използването на подобни технологии в контекста на въоръжените конфликти. Докато IDF запазва, че хуманният анализ остава от решаващо значение, критиците твърдят, че увеличената зависимост от AI може да компрометира процеса на вземане на решения и да усили деструктивните последствия на военните действия.

Често задавани въпроси

The source of the article is from the blog procarsrl.com.ar

Privacy policy
Contact