전장 AI의 엿보기: 이스라엘 군사의 ‘라벤더’와 알고리즘 전투 윤리

현대 전쟁 역학을 형성하는 신흥 군사 기술

군사 전략에 중대한 발전으로, 2021년 책에서 “YS 대장”이 제안한 개념이 실현되었습니다. 이 논문은 고속 데이터 처리 기계의 개발을 제안하여 다양한 잠재적 군사 대상을 식별하고 인공 지능과 인간의 시너지를 향상시키는 바람직성을 제안했습니다.

이스라엘 방위 작전에 미치는 ‘라벤더’의 영향

+972와 로컬 콜이 발표한 조사 보고서는 아이디안 전송소가 공개한, 이스라엘 군이 “라벤더”라고 불리는 인공 지능 프로그램을 배치함을 강조했습니다. AI는 가자 분쟁 중에 타겟팅 작전에서 중추적인 역할을 했으며, 이 프로그램과 직접 연결된 이스라엘 정보요원 6명에 의하면 특히 초기 단계에서 그 역할을 했음이 밝혀졌습니다.

전쟁 시스템의 신뢰성과 윤리적인 함의

라벤더를 의존함으로써, 군사는 약 37,000명의 팔레스타인인을 잠재적 용의자로 식별했습니다. AI의 결정은 종종 인간적 판단과 동등시되어, 인가 조치 전에 각 잠재적 대상에 대해 평균적으로 20초가 소요되었습니다. AI는 전반적으로 높은 정확도를 달성했지만, 10%의 오차율을 인정했으며 때로는 대상 집단과 미미하거나 관련성이 없는 개인을 잘못 식별하기도 했습니다.

논란이 되는 타겟티팅 전술과 민간인의 위험

AI는 주거지역을 포함한 체계적인 공격을 수행하는 데 도움을 주었으며, 이로 인해 많은 민간인 희생자가 발생했습니다. 특히 여성, 어린이, 비전투인들의 대부분이 포함된 이 희생자 중에 집중됐습니다. 정보 관리자는 군사 설정보다는 국내 공간을 표적으로 쉽게 선택할 수 있다고 강조했습니다. 또한 하급 대상을 위해 고가의 무장을 줄이는 데 사용되는 앙내돔든 무장을 사용하기로 선호했습니다.

군사 참여의 선례 설정

이례적인 조치로, 하급 작업자가 식별될 때마다 최대 15~20명의 민간 희생을 허용하기로 결정되었으며, 이 수는 고위급 관리자에 이르면 점점 증가했습니다.

가자 분쟁에서의 타겟 자동화의 연대기

처음에는 이스라엘군이 고위급 작업자에 집중하여 “인간 대상”을 엄격히 정의했습니다. 그러나 2023년 10월 7일 이스라엘군의 합병에 이끌리는 사상 재증에 따라 하마스와 연관된 모든 개인이 타겟으로 간주되었습니다. “라벤더”의 정확성이 견본 검사를 통해 확인되자, 그 선택 사항은 독립적인 확인 없이 진행되기로 허가받았으며, 전쟁 중 결정 과정이 단순화되고 가속됐습니다.

이 새로운 접근의 결과는 팔레스타인 보건부의 데이터와 같이, 첫 6주 동안 상당량의 사망자가 발생했으며, 분쟁이 계속됨에 따라 그 수치는 거의 두배 되었습니다. 라벤더는 230만 명의 가자 인구에 거대한 감시를 적용하여 각 개인의 군사적 활동 가능성을 확인했습니다.

알고리즘 군사의 주요 도전과 논쟁:

이스라엘 군의 “라벤더” AI 프로그램과 같은 알고리즘 군사는 상당한 도전과 논란을 제기합니다:

윤리적 함의: 알고리즘을 사용하여 타겟 선정 결정을 내리는 것은 자율성, 책임성 및 인간 생명에 대한 가치에 대한 윤리적 질문을 불러일으킵니다. AI 시스템이 몇 초 안에 결정을 내리면서 인간 감시의 충분성과 전쟁의 비인간화 가능성이 문제가 됩니다.

민간인 사상: AI 타겟팅은 시스템이 잘못된 대상을 식별하거나 비례성 지침이 중요한 부수 피해를 허용할 경우 높은 민간 희생자수에 이어질 수 있습니다. 가자와 같은 인구 밀집지역에서 비전투인의 위험은 주요한 인권 문제입니다.

투명성과 책임성: 이러한 시스템이 어떻게 작동하고 결정을 내리는지에 대한 투명성에 대한 의문이 있습니다. 적절한 감독 없이는 잘못된 공격이나 민간 사상에 대한 책임을 할당하는 것이 어렵습니다.

법적 도전: 전쟁에서의 AI는 인간 결정자를 위한 국제 인도법을 시험합니다. 충돌 지역에서 AI 시스템의 결정과 행동의 합법성은 여전히 논의 중에 있습니다.

전투장 AI의 장단점:

장점:
효율성: “라벤더”와 같은 AI 시스템은 인간보다 빠르게 데이터를 처리하고 잠재적 타겟을 식별할 수 있으므로 빠르게 동작하는 전투 상황에서 결정적일 수 있습니다.
자원 최적화: AI는 다양한 타겟에 필요한 효과 수준을 결정함으로써 고가의 무장을 절약하는 데 도움을 줄 수 있습니다.
향상된 능력: 고급 감시와 분석을 통해, 인간 분석가가 놓칠 수 있는 위협을 식별할 수 있습니다.

단점:
오류 범위: AI 시스템의 인정된 오차율은 잘못된 타겟팅과 무죄자 희생을 야기할 수 있습니다.
차별 부족: AI는 특히 도시 환경에서 전투원과 비전투원을 구분하기 어려워할 수 있습니다.
폭력의 확대: 알고리즘 결정제의 비인간화된 성격은 폭력의 확대로 이어질 수 있으며, 전쟁 중 강제 행위가 더 확률적일 수 있습니다.

군사 적용 분야에서의 인공지능과 현대 전쟁의 윤리에 대해 더 알아보고자 하는 분들을 위해 아래 도메인에 관련 정보를 제공할 수 있는 링크가 있습니다: 국제적인 레드 크로스 위원회. ICRC는 새로운 기술이 군사적 충돌에서 어떻게 사용되는지를 포함하여 국제 인도법과 관련된 문제에 대해 광범위히 노력하고 있습니다. 제공된 URL은 주 소속지로 확인된 유효하고 관련성이 있는 URL입니다.

The source of the article is from the blog windowsvistamagazine.es

Privacy policy
Contact