인공지능 전쟁의 현실: 의도치 않은 결과 노출

인공지능(AI) 시스템을 활용하여 가자에서 잠재적인 공습 목표 리스트를 작성하는 등의 작업을 수행하는 이스라엘 군에 의한 최근의 AI 시스템 사용은 군사 AI의 함의에 대한 주목을 자아냈습니다. 비영리 매체인 +972 매거진이 발표한 보고에 따르면, 라벤더라고 알려진 시스템은 기타 AI 시스템과 함께 사용되어 의심되는 군사들을 몰살하기 위한 목표를 지정하고 노출하여 인명 피해를 초래했습니다.

이스라엘 군은 보고서에서 많은 주장들을 부인하며, 라벤더가 인공지능 시스템이 아니라 정보 출처를 상호참조하기 위한 데이터베이스임을 주장했습니다. 그러나 다른 출처들은 이스라엘 군의 작전에서 AI를 사용했다는 사실을 확인합니다. 2021년 예루살렘포스트에 따르면 이스라엘은 하마스와의 갈등 중 기계 학습 시스템을 사용하여 목표를 식별했다고 보도했습니다. 게다가 이전 +972 보고서에서 언급된 AI 시스템인 하브소라는 폭탄 투하를 위한 잠재적인 군사 건물 및 시설을 자동으로 식별합니다.

군사에서의 AI 잠재력은 이스라엘에만 국한되지 않습니다. 미국이나 중국과 같은 국가도 군사 목적으로 AI 시스템에 투자하고 있습니다. 옹호자들은 AI가 빠른 의사 결정, 높은 정확도, 그리고 인명 피해를 줄일 수 있다고 주장합니다. 그러나 인간의 감독 부재와 AI로 생성된 목표에 대한 잠재적인 오류에 대한 우려가 있습니다.

최근 +972 보고서는 라벤더가 목표 식별 프로세스를 자동화하지만 기준이 더 헐거운 경우와 증거의 표준이 낮을 수 있어 대략 10%의 사례에서 오류가 발생할 수 있다고 주장합니다. 보고서는 또한 목표가 첫 번째 옵션으로 자신의 집에서 폭격을 받고, 결과적으로 인명 피해가 발생한다는 것을 시사합니다.

군사 AI 주변의 윤리적 및 법적 우려가 대부분 무시되어 왔습니다. 현재 군사 AI의 사용을 규제하는 보편적으로 수용되거나 법적으로 구속력 있는 규칙은 없습니다. 그러나 이러한 우려사항을 다루는 일부 발전이 있었습니다. 유엔은 “치명적 자율 무기 시스템”의 사용을 10년 이상 토론해왔으며, 유엔 총회는 최근 알고리즘이 살인에 관련된 결정에 완전히 통제되어서는 안 된다는 초안 결의안을 표결했습니다. 미국은 또한 AI와 자율성의 책임 있는 군사 사용에 대한 선언을 발표했으며, 여러 국가들의 지원을 얻었습니다.

이러한 노력에도 불구하고, 군사 AI 사용에 대한 국제 규정은 기술의 급속한 발전과 비교해 따라가기 어렵습니다. 전세계 군대가 전투용 AI 시스템을 활용함에 따라 의도치 않은 결과와 잠재적 인도적 피해가 더욱 명백해지고 있습니다.

AI에 의한 정밀 전쟁이 완전히 실현되지 않았습니다. 가자에서의 AI 시스템 사용에 관한 보고서들은 목표 결정에 있어 알고리즘에만 의존하는 것의 한계와 의도치 않은 결과를 보여줍니다. 군사 AI와 관련된 윤리적, 도덕적 딜레마를 다루는 것이 중요하며, 이 강력한 기술의 오용을 방지하고 인권을 지키며 인명 피해를 최소화하기 위해 인간 감독과 국제 규정이 확립되어야 합니다.

The source of the article is from the blog motopaddock.nl

Privacy policy
Contact