Използването на Изкуствен интелект във военните операции и загриженостите от граждански жертви

Използването на изкуствения интелект (ИИ) става все по-разпространено във военните операции, но се появяват загрижености относно неговото въздействие върху гражданските жертви. Израелската военна служба например използва ИИ инструмента Lavender, за да помага при избора на цели за бомбардировки в Газа. Въпреки това според разследване на израелските списания +972 Magazine и Local Call, този система жертвува точността в полза на скоростта, което води до смъртта на хиляди граждани.

Системата Lavender беше разработена след атаките на Хамас на 7-ми октомври с цел идентифицирането и одобряването на убийствата на заподозрени „Хамас менталисти“ в Газа. Израелската военна служба отрече наличието на списък с цели за убийство, но потвърди използването на Lavender като инструмент за анализаторите в процеса на идентификация на целите. Все пак, израелските разузнавателни служби разкриха, че не бяха задължени да потвърждават независимо целите, избрани от Lavender, ефективно служейки само като печати за одобрение на решенията на машината.

За изграждането на системата Lavender бяха използвани данни за известни оперативни лица на Хамас и Палестинския ислямски джихад, заедно с данни за лица, които косвено са свързани с Хамас. Системата беше обучена да идентифицира черти, свързани с оперативните лица на Хамас, като тяхната афилиация с определени групи в WhatsApp или честите смяни на мобилни телефони и адреси. Основавайки се на тези черти, палестинците в Газа бяха класирани на скала от 1 до 100, като тези, достигащи определен праг, бяха маркирани като цели за удари. Системата Lavender се хвали с около 90-процентова точност, все пак водеща до грешно идентифицирани лица, които не са членове на военното крило на Хамас.

Един от притеснителните аспекти на системата Lavender беше нейното пренебрежение на гражданските жертви. Разузнавателните служби получиха голяма свобода при определянето на колатерални щети, с разрешение да убиват до 15 или 20 граждани за всеки цел, свързан с по-ниско ниво на Хамас. За висшите чиновници на Хамас, се съобщава, че се санкционират „стотици“ колатерални граждански жертви. Освен това насочването на домовете на заподозрените оперативни лица на Хамас с използването на системата „Къде е Татко?“ често водеше до бомбардирането на цели семейства, дори без да се потвърждава дали целите са на място. Това пренебрежение към гражданските животи подчертава сериозните етични проблеми, свързани с използването на ИИ във войните.

Системата Lavender и подобните технологии, използвани от Израел в Газа и Западния бряг, вдъхновяват тревоги, особено в светлината на докладите, че израелските стартъпи в областта на отбраната се стремят да изнасят своите технологии, базирани на ИИ, зад граница. Въздействието върху гражданските населения, както и възможността за злоупотреба или неправомерно използване на тези инструменти, подчертава сериозни въпроси за техните етични последици.

ЧЗВ

Каква е системата Lavender?
Системата Lavender е изкуствен интелект, използван от израелската военна служба, за помощ при идентифицирането и нацеливането на заподозрени Хамас менталисти в Газа.

Как е била обучена системата Lavender?
Системата Lavender беше обучена с данни за известни оперативни лица на Хамас и Палестинския ислямски джихад, както и данни за лица, които са косвено свързани с Хамас. Тя беше обучена да идентифицира черти, свързани с оперативни лица на Хамас, като техните афилиации с определени групи в WhatsApp или модели на смяна на мобилни телефони и адреси.

Каква е точността на системата Lavender?
Системата Lavender се хвали с точност около 90%, което означава, че около 10% от идентифицираните като оперативни лица на Хамас не са реални членове на военното крило на Хамас.

Какви са последиците от използването на системата Lavender?
Използването на системата Lavender доведе до смъртта на хиляди граждани в Газа, тъй като колатералните щети често бяха пренебрегвани в полза на нацеливането на заподозрени оперативни лица на Хамас.

Какви са загриженостите около използването на ИИ във войните?
Загриженостите във връзка с използването на ИИ във войните включват възможността за грешно идентифициране на целите, пренебрегване на гражданските жертви и етичните последици от разчитането на машини за вземане на решения за живот и смърт.

В заключение, използването на ИИ във военните операции, както е било показано от системата Lavender, предизвиква сериозни загрижености относно неговото влияние върху гражданските жертви и етичните последици от разчитането на технологии, управлявани от ИИ. Е от изключителна важност за правителствата и военните организации да внимават възможните рискове и да се уверят, че тези технологии се използват по отговорен и етичен начин.

За повече информация относно този тема посетете: [източник](#)

The source of the article is from the blog zaman.co.at

Privacy policy
Contact