イスラエル軍の人工知能(AI)による標的選定に対する懸念が高まる

最近の調査によると、イスラエル軍がガザでの爆撃標的の特定に人工知能(AI)技術を利用していることが明らかになりました。この発見は、+972 MagazineとLocal Callによって明るみに出され、このAIを重点的に活用することの精度や倫理的な側面について深刻な懸念が投げかけられています。このプログラムに関与した6人のイスラエルの情報機関関係者によると、AIベースのツールである「ラベンダー」の誤差率は10%と報告されています。

イスラエル国防軍(IDF)は、そのツールの存在を認めたものの、AIを使用して容疑者を特定することを否定しています。しかし、情報システムは分析者のツールとして標的特定プロセスに使用されていることを認めています。IDFは、市民に与える害を最小限に抑えることにコミットしており、分析者は国際法とIDFの指針に従い、特定された標的を独立して調査し、検証する必要があると述べています。

IDFの主張に反し、プログラムに関与する1人の関係者は、人間の要員が標的を承認する前に各標的を評価するのに約20秒しかかけず、ほとんど人間が関与していないことを明らかにしました。これは、潜在的な市民犠牲者に対する検討と配慮のレベルに関して懸念を引き起こしています。

この調査は、国際的なイスラエル軍のキャンペーンに対する監視が強まる時期に行われています。外国人支援従事者の死亡を引き起こす標的空爆を含む事件が注目を集めています。ガザ保健省によると、イスラエルのガザ封鎖により32,916人以上が死亡し、人道的危機が引き起こされ、国連によると北ガザの75%の人々に影響を与え、幅広い飢饉が広がっています。

調査の著者であるユバル・アブラハム氏は、以前にAIを人間の監督が最小限で標的を生成するためにイスラエルが重度に依存していることを明らかにしていました。しかし、イスラエル軍はAIシステムを使用してテロリストを特定することを否定しており、テロ組織の軍事活動家に関する情報源を照らし合わせるデータベースの使用を認めています。

また、調査では、イスラエル軍が住居を標的とする夜間攻撃を体系的に実施し、しばしば女性や子供を含む無実のパレスチナ人が犠牲になっていることが明らかになりました。疑わしい下級兵士を標的とする際に未誘導の「ダム」爆弾が使用され、重大な副次的被害を引き起こす可能性があります。

CNNの報告によると、最近のキャンペーンでガザに落とされた弾薬の約半分が未誘導のダム爆弾でした。これは、ガザのような人口密集地域において、特に市民に対して大きな脅威となります。IDFは、予想される副次的被害が軍事的利益に対して過度でない場合にのみ攻撃が行われると主張しており、市民に与える害を最小限に抑える努力が行われているとしています。

イスラエル軍の標的選定プロセスにおけるAIの利用は、重要な倫理的問題を提起しています。無辜の人々の保護を確保するために、意思決定におけるより大きな透明性、説明責任、および人間の関与が必要です。国際社会は、これらの懸念を解決し、人道法の原則を保護するための対話と監視を行う必要があります。

### FAQ

#### 人工知能(AI)とは何ですか?
AIは、視覚認識、音声認識、意思決定、問題解決など、通常は人間の知能を必要とするタスクを実行できる知能を持った機械の開発を指します。

#### 未誘導の「ダム」爆弾とは何ですか?
未誘導の「ダム」爆弾は、誘導システムを持たず、重力に頼って軌道を描く従来の爆発装置です。これらの爆弾は不正確な性質から、副次的被害や市民への危害を引き起こす可能性が高いです。

#### イスラエル軍の標的選定プロセスの目的は何ですか?
イスラエル軍の標的選定プロセスの目的は、テロリスト組織に関連する標的を特定し、彼らの活動を妨害し、国家安全保障を確保することです。ただし、標的の特定の正確性や市民への潜在的な危害について懸念が示されています。

Privacy policy
Contact