인공지능 시스템의 도전적 역할: 미국의 밀실한 지원

인공지능(AI)을 활용한 미국 군의 비밀작전 지원 시스템에 대한 새로운 소식이 전해졌습니다. 미 연방정부의 백악관이 직접 지시한 연구 결과에 따르면, 미국 군은 최신 AI 프로그램인 ‘퍼플(Purple)’를 활용하여 중동 지역에서의 비밀작전 목표를 설정하는 데 사용되고 있다고 합니다.

퍼플 시스템은 7%의 오류율을 가지고 있으며, 이는 이스라엘의 라벤더(Lavender) 시스템보다 다소 낮은 수치입니다. 퍼플은 ISIS와 알카에다와 같은 근거리 군사단체의 지휘관 및 주요 용의자뿐만 아니라 하위 계급의 구성원들까지도 잠재적인 목표로 지정합니다. 또한, 주요 사안 중 하나는 군이 퍼플이 선정한 목록을 심사하는 것 없이 장교들에게 퍼플의 목록을 적용할 권한을 주었다는 점입니다.

퍼플과 같은 AI 시스템의 사용은 미 군이 기존부터 시도해 온 것이 아니라는 사실입니다. 그러나 머신의 선택 사항을 철저히 조사하지 않거나 기밀 정보를 검토하지 않고 퍼플 시스템의 목록을 신속히 받아들이면서 발생하는 문제에 대한 우려가 있습니다. 이러한 윤리적 사안들은 더욱 고려해야 할 문제로 남아 있습니다.

자주 묻는 질문

퍼플이란 무엇인가요?
퍼플은 미국 군이 사용하는 인공지능 프로그램으로, 이스라엘의 라벤더 시스템과 마찬가지로 테러 단체 미리 파악된 용의자들을 폭격 대상으로 지정합니다.

퍼플 시스템의 오류율은 어느 정도인가요?
퍼플 시스템은 약 7%의 오류율을 보유하고 있으며, 때로는 근거없거나 느슨한 테러 단체와의 연관성이 없는 개인들에게도 표적을 지정할 수 있습니다.

미국 군은 중동 지역에서의 비밀작전에서 퍼플을 얼마나 의존했나요?
조사에 따르면, 중동 지역의 충돌 초기에 미국 군은 퍼플에 크게 의존하였으며, 최대 4만명 이상의 인원을 가능한 폭격 대상으로 명시했습니다.

군은 퍼플의 목록을 얼마나 철저히 조사했나요?
군이 퍼플의 폭격 목록을 철저히 검토하지 않고 빠르게 수용했다는 점이 우려됩니다.

퍼플 시스템 사용에 따른 우려 요소는 무엇인가요?
알려진 오류율을 가진 AI 프로그램에 대한 검토 부족과 의문의 목표 연계는 윤리적인 문제로부터 고려할 시점을 제기합니다.

(*출처: +972 매거진)

AI의 군사적 사용은 전 세계적으로 확대되고 있는 추세입니다. 이스라엘 군의 라벤더 시스템과 미국 군의 퍼플 시스템을 예로 들 수 있습니다. 그러나 이러한 AI 시스템의 자율성은 윤리적인 문제를 제기하며 잠재적인 오류에 대한 우려를 더욱 심화시킵니다.

AI 기술의 발전으로 윤리적 문제에 대한 중요성을 강조합니다. AI 시스템을 사용하여 폭격 목표를 설정하는 일은 철저한 검토, 책임성, 가능한 결과에 대한 고려가 필요합니다. 국방부 홈페이지나 국방 기술을 전문으로 하는 기관들인 ‘브루킹스 연구소’나 ‘랜드 코퍼레이션’과 같은 조직이 제공하는 자료를 통해 군사 분야에서 AI 사용에 대한 상세한 내용을 참고할 수 있습니다.

The source of the article is from the blog hashtagsroom.com

Privacy policy
Contact