AI 전쟁에서 인공지능 사용이 민간인 희생 우려를 불러일으키다

군사 작전에서 인공지능(AI)의 사용이 점점 더 일상화되고 있지만 그 영향으로 인한 민간인 희생에 대한 우려가 제기되고 있습니다. 이스라엘 군은 예를 들어 ‘라벤더(Lavender)’라는 AI 도구를 활용하여 가자 지구에 폭격 대상을 선정하는 데 도움을 주고 있습니다. 그러나 이스라엘 기자들이 실시한 +972 잡지와 로컬 콜의 조사에 따르면, 이 시스템은 속도를 우선시하여 정확성을 포기함으로써 수천 명의 민간인들이 사망하는 결과를 초래했습니다.

라벤더 시스템은 10월 7일 하마스의 공격 이후 개발되었으며 가자에서 의심스러운 ‘하마스 무장원’을 식별하고 암살을 승인하기 위한 목적으로 만들어졌습니다. 이스라엘 군은 암살 명부가 존재하지 않는다고 부인했지만, Lavender를 대상 식별 과정에서 분석가들에게 도구로서 사용한다고 인정했습니다. 그러나 이스라엘 정보요원들은 Lavender가 선택한 대상을 독자적으로 검증할 필요가 없었으며, 사실상 머신의 결정을 단순히 승인하는 역할만 하였습니다.

라벤더 시스템은 하마스 및 팔레스타인 이슬람 기하드 조직의 알려진 데이터와 하마스와 느슨하게 연결된 개인들의 데이터를 사용하여 구축되었습니다. 그들의 특징들을 식별하기 위해 훈련된 시스템에는 특정 WhatsApp 그룹과 휴대전화나 주소를 자주 바꾸는 패턴과 같은 하마스 무장원과 관련된 특징들이 포함되어 있었습니다. 이러한 특징들을 기반으로 가자 지구의 팔레스타인인들이 1-100 등급으로 분류되었고, 특정 임계치에 도달한 사람들이 공격 대상으로 표시되었습니다. 라벤더 시스템은 약 90%의 정확도를 자랑했지만, 그 결론은 하마스의 군사 부대 직원이 아닌 사람들의 오인을 초래했습니다.

라벤더 시스템의 놀라운 측면 중 하나는 민간인 희생을 무시한 것입니다. 정보 요원들은 부수 피해에 대해 많은 자유롭게 행사했으며, 하마스 무장원들을 대상으로 할 때마다 최대 15~20명의 민간인을 살해할 권한을 부여받았습니다. 하마스 고위 간부의 경우, “수백 명”의 부수 민간 희생이 승인되었습니다. 또한 ‘아빠 어디에'(Where’s Daddy?) 시스템을 이용하여 의심되는 하마스 무장원의 집을 표적으로 삼을 때, 실제로 그 대상이 존재하는지 확인하지 않고도 가족 전체를 폭격하는 경우가 자주 있었습니다. 이러한 민간인 생명에 대한 무시는 전쟁에서 AI 사용에 대한 중요한 윤리적 우려를 강조합니다.

가자 지구와 서안 제주에서 이스라엘이 사용하고 있는 라벤더 시스템과 유사한 기술은 민간인 희생에 큰 영향을 줄 수 있어 주목할 만합니다. 특히 이스라엘의 방위 산업 초기기업들이 해외로 그들의 AI 기술을 수출하려는 노력이 보고되고 있어, 이 도구들의 윤리적 영향에 대한 심각한 문제가 높은 관심을 불러일으키고 있습니다.

자주 묻는 질문

**라벤더 시스템이란 무엇인가요?**
라벤더 시스템은 이스라엘 군이 가자 지구에서 의심되는 하마스 무장원을 식별하고 표적으로 삼는 데 사용하는 인공지능 도구입니다.

**라벤더 시스템은 어떻게 훈련되었나요?**
라벤더 시스템은 알려진 하마스와 팔레스타인 이슬람 기하드 무장원 데이터, 그리고 하마스와 느슨하게 연결된 개인들의 데이터를 사용하여 훈련되었습니다. 특정 WhatsApp 그룹에 속하거나 휴대전화와 주소 등을 자주 바꾸는 패턴과 같은 하마스 무장원과 연관된 특징들을 인식하도록 훈련되었습니다.

**라벤더 시스템의 정확도는 어느 정도인가요?**
라벤더 시스템은 약 90%의 정확도를 자랑했으며, 식별된 하마스 무장원들 중 약 10%가 실제 하마스 군사 부대 직원이 아닌 것으로 확인되었습니다.

**라벤더 시스템 사용의 결과는 무엇이었나요?**
라벤더 시스템의 사용은 가자에서 수천 명의 민간인 사망을 초래했습니다. 의심되는 하마스 무장원을 표적으로 삼기 위해 종종 부수 피해가 무시되었습니다.

**전쟁에서 AI 사용에 대한 우려사항은 무엇인가요?**
전쟁에서 AI 사용에 대한 우려사항에는 표적의 오인 가능성, 민간인 희생을 무시하는 것, 머신에 생사 결정을 맡기는 윤리적 문제 등이 포함됩니다.

인공지능을 군사 작전에 활용하는 것은 증가하는 추세이며, 다양한 국가들이 군사 전략에 AI 도구를 통합하고 있습니다. 라벤더 시스템을 비롯한 이스라엘의 군사가 가자 지구에서 의심되는 하마스 무장원을 식별하고 표적으로 삼는 데 사용하는 시스템은 이러한 예의 하나입니다. 그러나 이 시스템이 민간인 희생에 미칠 영향에 대한 우려가 제기되고 있습니다.

라벤더 시스템은 하마스 공격에 대응하여 개발되었으며 의심되는 무장원을 식별하고 암살을 승인하기에 목적을 두었습니다. 알려진 하마스와 팔레스타인 이슬 무장원의 데이터와 동시에 느슨하게 하마스와 관련된 개인들의 데이터를 활용하였습니다. 이 시스템은 특정 WhatsApp 그룹에 속하거나 휴대전화와 주소를 자주 바꾸는 패턴과 같은 하마스 무장원과 관련 특징을 식별하기 위해 훈련되었습니다. 라벤더 시스템이 약 90%의 정확도를 주장했지만, 실제 하마스 군사 부대 직원이 아닌 사람들의 잘못된 식별을 초래했습니다.

라벤더 시스템의 가장 불안한 측면 중 하나는 민간인 희생을 무시한 것입니다. 정보 요원들은 부수 피해에 대해 상당한 자유를 부여하여 하마스 무장원마다 일정 수의 민간인을 살해할 권한을 가졌습니다. 상급 하마스 관리자들을 대상으로 할 때, 더 많은 수의 부수 민간 희생을 승인한 것으로 보고되었습니다. 이러한 민간인 생명에 대한 무시는 전쟁에서 인공지능 사용의 윤리적 우려를 강조합니다.

게다가 보고서에 따르면 이스라엘의 방위산업 초기 기업들이 다른 국가들에게 자사의 AI 기술을 수출하려는 노력을 펼치고 있습니다. 이러한 AI 기술의 남용이나 오용의 가능성에 대한 우려가 일별 크고, 충돌 지역 외의 민간인에 미치는 영향에 대한 우려도 커지고 있습니다. 전쟁에서 생사 결정을 머신에 맡기는 것의 윤리적 영향은 상당히 중요하며 신중히 고려되어야 합니다.

결론적으로, 라벤더 시스템을 포함한 AI의 군사 작전에서의 사용은 민간인 희생에 미칠 가능성과 AI 기술에 의존함으로써 발생하는 윤리적 문제에 대한 심각한 우려를 제기하고 있습니다. 정부와 군사 기관은 이러한 기술이 책임 있고 윤리적인 방식으로 사용되도록 주의 깊게 고려해야 합니다.

더 많은 정보를 원하신다면, [URL]를 참고하세요.

The source of the article is from the blog regiozottegem.be

Privacy policy
Contact