Използването на изкуствен интелект за целена селекция предизвиква спорове

Според последния доклад е известно, че Израел използва база данни с изкуствен интелект за селекция на цели в Газа. Тази база данни, наречена „Лавандула“, е обучена от израелски военни данни научници и преглежда големи обеми наблюдателна информация, за да генерира цели за убийство.

Според доклада, „Лавандула“ може да е играло значителна роля в началото на последните сблъсъци между Израел и Хамас, като Израел извърши множество вълни от авиационни удари по Газа. Според този инструмент са били идентифицирани около 37 000 палестинци и техните домове като цели за убийство. Въпреки това, Израелските отбранителни сили (ИОС) отричат съществуването на „листа за убийства“ и описват „Лавандула“ като база данни предназначена за сборно използване на информационни източници.

Използването на изкуствен интелект за стратегии за целена поддържа загриженост на сметката на деструкцията и високия брой жертви в Газа. Предишните конфликти между Израел и Хамас включваха по-човеколюбив процес на селекция на цели, базиран на информация и разузнаване. Въпреки това въвеждането на „Лавандула“ по време на период на увеличен израелски гняв и травма след терористичен удар от Хамас може да е допринесло за бърза и обхватна програма на отмъщение.

Доказателствата от израелски разузнавателни служители, докладвани от +972 списание и Местен повикване, подсказват, че решенията на машините често са били третирани като „гумен печат“ от човешки персонал, въпреки знанието, че системата понякога маркира лица с слаби връзки към въоръжени групи или никакви връзки. Това може да обясни защо Израел използваше „глупави“ бомби, тежки и неуправляеми оръжия, по потвърдени цели, селектирани от „Лавандула“, като резултатът беше значителни щети и загуби от граждански живот.

Използването на „Лавандула“ и стратегиите за целена на Израел предизвикали широки загрижености, като критиците твърдят, че е трудно да се различават валидните военни цели и граждани в плътно населената Газа. Организации за правата на човека, включително Амнистия интернешънъл, призовават Израел да използва най-точните налични оръжия и да намали гражданските жертви.

ИОС отговарят на доклада, като твърдят, че някои от направените твърдения са неоснователни. Те аргументират, че „Лавандула“ не е изкуствен интелект, а база данни, използвана за сборно използване на информационни източници, за да информира анализаторите в процеса на идентификация на целите.

Последният случай, включващ израелски дронов удар по колона на Закусване за света, който доведе до смъртта на седем служители на съдружие, допълнително привлече вниманието към действията на Израел по време на конфликта. В отговор на това, президент Байдън призова Израел да промени курса и да предприеме стъпки за по-добра защита на гражданите и улесняване на доставките на помощ. Освен това, стотици британски адвокати и съдии призоваха правителството да спре продажбите на оръжие към Израел, за да избегне съучастие в възможни нарушения на международното право.

Въпреки възможните предимства на изкуствения интелект във военните операции, той също поддържа етични въпроси относно точността на селекция на целите и потенциала за граждански жертви. Докато конфликтите продължават да се развиват, е от съществено значение за нациите да осигурят, че използването на технологията на изкуствения интелект във войните се придържа към международното хуманитарно право и намалява вредата за гражданите.

Често задавани въпроси

The source of the article is from the blog klikeri.rs

Privacy policy
Contact