Reimagining the Impact: The Ethical Dilemma of AI in Modern Warfare

在迦薩地區以色列和哈馬斯之間的持續衝突中,以色列軍隊的毀滅性空襲幾乎已成為日常事件。這些空襲經常導致顯著巴勒斯坦人的家園,包括記者、醫生和救援人員的毀壞,造成了眾多家庭成員,包括兒童的死亡。

一起事件涉及著名巴勒斯坦詩人和教授Refaat Alareer,他在戰爭期間曾在家中尋求庇護。令人悲劇的是,以色列的一次空襲不僅奪去了他的生命,還奪走了他的兄弟、姐妹和四名子女的生命。加薩的記者們也遭受了巨大損失,至少有90名巴勒斯坦人死亡,這是任何現代衝突中對記者造成最致命的時期。

這些令人震驚的傷亡引發了關於以色列在衝突中的行為的尷尬問題。以色列指揮官們用這些致命打擊瞄準的是誰,以及如何選擇這些目標?+972 Magazine和Local Call最近的一份調查報告揭示了一些令人不安的答案,揭示了人工智能(AI)和道德之間的模糊界限。

報告顯示,以色列國防軍自戰爭開始以來一直在使用一個名為「Lavender」的AI程序來識別加薩的目標。以色列國防軍承認使用AI進行情報活動,但堅稱人類的決策仍然是瞄準決定的核心。然而,+972報告指出,對AI目標的人類審查往往只是簡單的橡皮印章,僅持續20秒。

更令人擔憂的是,Lavender AI系統的準確率仍然為10%。這意味著存在著將與哈馬斯成員分享姓名或甚至是最近繼承電話號碼的人誤認為目標的風險。

繼續提問主要是以什麼樣的邏輯進行的,也需要了解AI技術對未來戰爭產生的影響,這些不能不去審視和思考,保護人類生命價值才是我們更應該去關注和深思考的事情 。

解圍

Q:在加薩的戰爭中有多少巴勒斯坦人被殺害了?
A:戰爭中已奪取了超過33,000名巴勒斯坦人的生命,其中大部分是婦女和兒童。

Q:以色列空襲的目標是如何選擇的?
A:以色列軍隊一直在使用名為「Lavender」的AI程序來識別加薩的目標。 IDF聲稱人類決策是重要的,+972的報告表明人類審查往往短暫,可能僅持續20秒,指示在決策過程中的角色。

Q:Lavender AI程序的錯誤率是多少?
A:Lavender AI 系統的目標準確率為10%,導致錯誤地轟炸了與哈馬斯成員共享姓名或最近繼承一個電話號碼。

Q:以色列如何優先選擇目標?
A:在衝突的早期階段,以色列指揮官們據稱視每個低級別哈馬斯行動人員為目標,接受15-20個無辜平民為代價的行為。 對於更高級別的哈馬斯成員,這個數字增加到數百人。

Q:Lavender AI系統在定位目標方面有多準確?
A:Lavender AI系统擅長將選定目標追踪到他們的家中,在那裡空襲被視為最成功。 但是,該系統在找到目標家的能力方面遠高於確定目標是否實際出現,導致無辜家庭被毫無必要地殺害的情況發生。

由以色列和哈馬斯在加薩之間的持續沖突發展出來,這是一個複雜且易爆的地區。以色列國防軍(IDF)自戰爭開始以來一直依靠名為「Lavender」的AI程序來識別加薩的目標。 IDF堅稱人類的決策對於決定目標至關重要,但+972 Magazine和Local Call最近的一項調查報告表明人類對AI目標的審查往往很簡短,可能僅持續20秒。

Lavender AI系統在準確度方面仍然有10%的錯誤率,這增加了誤炸與進一步導致平民傷亡的風險。

一個由以色列情報機構面臨的道德困境涉及到对哈马斯的目标的人口。

The source of the article is from the blog enp.gr

Privacy policy
Contact