Изкуственият интелект на Израел при атаките повдига загриженост

Изкуственият интелект (ИИ) се превърна в предмет на загриженост, тъй като страни като Съединените щати и Китай го интегрират във военните си операции. Скорошни доклади показват, че Израел използва ИИ технологии за идентифициране на цели за бомбардировки в Газа, повдигайки сериозни въпроси относно безопасността на гражданите и размазването на отговорността.

Според списанията +972 Magazine и Local Call със седалище в Тел Авив, Израел използва програма за изкуствен интелект на име „Лавандула“, за генериране на цели за убийство, специфично палестинци, предполагаеми за ХАМАС. Докладът обвинява, че тази ИИ система играе съществена роля в безпрецедентната кампания на бомбардировки срещу палестинци.

Генералният секретар на Организацията на обединените нации Антонио Гутереш изрази безпокойство от употребата на ИИ по този начин. Той аргументира, че решенията, които засягат цели с цялото семейство, не бива да се вземат от алгоритми. Гутереш подчерта, че ИИ трябва да бъде сила за добро, която да допринася за света, а не за влошаването на военните действия и недостига на отговорност.

Статията от Ювал Абрахам в +972 Magazine цитира израелски интелигентни служби, които имали директен опит с използването на ИИ за генериране на цели за убийство. Тези служители разкриха, че влиянието на програмата Лавандула било толкова силно, че изходите й се третирали като че ли човешки решения. Убийствените й списъци били одобрявани от служители и само „заверявани“ от хора, въпреки признанието, че системата сгрешава в приблизително 10% от случаите и понякога насочва лица със слаби или без връзки с военните групировки.

Източниците на Абрахам твърдят, че хиляди палестинци, много от които невинни цивилни, включително жени и деца, били убити в израелските въздушни удари по време на началото на войната поради решенията, взети от ИИ програмата. Според сведенията, Лавандула е селектирала около 37,000 членове на ХАМАС за убийство, предимно млади членове.

Използването на ИИ във военните действия предизвиква сериозни етически въпроси и поставя предизвикателства пред принципите на международното право. Засега е отразено на израелските отбрани сили отричането на използването на ИИ за идентифициране на цели, като твърдят, че техните информационни системи са само инструменти, използвани от анализатори в процеса на идентифициране на целите.

Често задавани въпроси

В: Каква е програма Лавандула?

О: Програма Лавандула е система за изкуствен интелект, която се твърди, че Израел използва за идентифициране на цели за бомбардировки в Газа.

Q: Какви са загриженостите относно използването на Израел на ИИ за обстрел?

A: Загриженостите са свързани с безопасността на гражданите и размазването на отговорността в решенията за живот и смърт. Има опасения от възможните грешки, допуснати от ИИ системите и техния въздействие върху невинните лица.

В: Колко палестинци са убити по време на кампанията на бомбардировки?

О: Според министерството на здравеопазването, свързано с ХАМАС, над 32,000 палестинци са били убити от момента на отмъщението на Израел след атаките на 7 октомври.

Q: Какво е казала Организацията на обединените нации по този въпрос?

A: Генералният секретар на ООН Антонио Гутереш изрази дълбока загриженост от използването на ИИ при определяне на целите за бомбардировки. Той подчерта необходимостта ИИ да се използва за добро и да не допринася за ескалацията на военните действия.

Q: Какво казва Израелската отбрана за използването на ИИ?

О: Израелската отбрана отрича използването на ИИ за идентифициране на цели и твърди, че техните информационни системи са само инструменти за анализаторите в процеса на идентифициране на целите. Те твърдят, че спазват международното право и израелските насоки.

Източници:

– +972 Magazine and Local Call (URL: domain.com)

– United Nations General Assembly (URL: domain.com)

The source of the article is from the blog enp.gr

Privacy policy
Contact