AI戦争の現実:意図せぬ結果の暴露

イスラエル軍がガザでの潜在的な空爆のターゲットリストを生成するために人工知能(AI)システムを使用した最近の事例が、軍事用AIの示唆に注意を引きました。非営利情報源である+972 Magazineが発表した報告によると、Lavenderとして知られるシステムは、他のAIシステムと共に使用され、疑わしい過激派を標的にして殺害するために使用され、重大な市民被害をもたらしました。

イスラエル国防軍は報告書の多くの主張を否定しており、Lavenderは人工知能システムではなく、情報源の相互参照のためのデータベースであると主張していますが、他の情報源はイスラエルの軍事作戦でAIが使用されていることを確認しています。2021年、Jerusalem Postは、イスラエルがハマスとの紛争中にターゲットを特定するために機械学習システムを使用していると報告しました。また、以前の+972の報告書には、爆撃のための潜在的な過激派建物や施設を自動的に特定するAIシステムであるHabsoraが言及されています。

軍事でのAIの可能性はイスラエルに限られていません。アメリカや中国などの国々も軍事目的のAIシステムに投資しています。支持者は、AIが意思決定の迅速化、精度の向上、および犠牲者の減少につながる可能性があると主張しています。しかし、人間の監督の不足やAIによる目標の誤りの可能性について懸念があります。

最近の報告によると、Lavenderは標的の特定プロセスを自動化していますが、基準が緩く証拠の基準が低い可能性があり、約10%のケースでエラーが発生しているとされています。報告はまた、目標が最初の選択肢として自宅に爆撃されていると述べ、市民被害が発生していると指摘しています。

軍事AIに関する倫理的および法的な懸念はほとんど無視されてきました。現在、その使用を管理する普遍的に受け入れられる法的拘束力のある規則はありません。ただし、これらの懸念に対処する取り組みがいくつか行われています。国連は「致命的な自律兵器システム」の使用について10年以上議論しており、国連総会は最近、決定に完全にアルゴリズムを制御させてはならないとする草案を可決しました。アメリカもAIと自律の責任ある軍事利用に関する宣言を発表し、多くの国々から支持を得ています。

これらの取り組みにもかかわらず、軍事AIの使用に関する国際規制は急速な技術の進歩に追いつくのに苦労しています。世界中の軍隊が戦争にAIシステムを取り入れる中で、意図しない結果や人道上の危害がより明白になります。

AIによる精密戦争の約束はまだ完全に実現されていません。ガザでのAIシステムの使用に関する報告は、標的の決定にアルゴリズムだけに依存することの制限と意図しない結果を示しています。軍事AIに関連する倫理的および道徳的ジレンマに取り組み、この強力な技術の誤用を防ぎ、人権を維持し、市民被害を最小限に抑えるために人間の監督と国際規制が確立されることが不可欠です。

よくある質問

1. Lavenderとは何ですか?
Lavenderは、イスラエル軍がガザでの潜在的な空爆のために標的のリストを生成するために使用している人工知能(AI)システムです。

2. 軍事でのAIの使用はイスラエルに限られていますか?
いいえ、アメリカや中国など他の国々も軍事目的のAIシステムへの投資を行っています。

3. 軍事AIに関する懸念は何ですか?
人間の監督の不足、AIによる目標の誤り、戦争でのAIシステムの使用に伴う倫理的および道徳的影響についての懸念があります。

4. 軍事AIの使用を管理する国際規則はありますか?
現在、軍事AIに対する明確で普遍的に受け入れられる法的拘束力のある規則は存在しません。国連や一部の国がこれらの懸念に取り組んでいます。

5. AIに頼って標的の決定をすることの意図しない結果は何ですか?
報告によると、標的決定にAIシステムを使用することは、誤りや基準の緩さ、証拠の基準の低下につながり、市民被害や人道的な危害を引き起こすことがあります。

The source of the article is from the blog mivalle.net.ar

Privacy policy
Contact