인공지능 주도 F-16, 획기적 항공 시험에서 인간 조종사들을 성공적으로 격파

인공 지능 능력의 이례적인 전시를 통해, 미국 공군은 펜타곤의 연구 기관인 DARPA와 협력하여 항공 전투에서 혁명적인 성취를 발표했습니다. 매우 수정된 F-16 제트인 Vista X-62A가 자율 공중 전투 미션인 개미전을 인간 조종사 상대로 실시하며 놀라운 성과를 거뒀습니다.

인공 지능이 전롱한 속도로 하늘을 헤치며, 거의 2000km/h의 속도로 날아들며 이 높은 위험도의 시험에서 서로 600미터까지 가까이 다가왔습니다. 이 시험은 그저 쇼를 위한 것이 아니었으며 근거리 전투 교육 훈련과정인 시뮬레이션을 신중하게 기록하는 동안, AI 제어 제트는 다섯 차례의 직접 대결에서 매번 승리를 거뒀습니다.

캘리포니아의 에드워즈 공군 기지 공중에서 실시된 이 시험은 AI가 인간 조종사와 비슷한 교육 과정을 거치도록 했었습니다. 그러나 실제 비행에서는 AI 조종사가 인간의 개입 없이 공중 전투의 복잡성에 대처했고, 시스템을 모니터링하기 위해 두 명의 조종사가 함께 있었습니다.

AI 통합의 안전과 효율에 초점을 맞추며, ACE AI 비행 프로그램을 담당하는 라이언 헤프론 중령은 책임 있는 AI 기술 사용에 대한 신뢰 구축을 주요 목표로 강조했습니다. 미국 공군 비행 학교 사령관인 제임스 발피아니 대령이 군사 조종사에게 가장 어려운 기술로 꼽았던 개미전의 본질적으로 위험한 성격에도 불구하고, AI 제트는 근접 전투 상황을 훌륭하게 다루었습니다.

미국 군은 다양한 방위 플랫폼을 통해 AI를 통합하고 있으며 우크라이나 군도 러시아군에 대항하여 방위 노력에서 AI를 활용하는 데 성공하고 있습니다.

질문과 답변:

Q: Vista X-62A가 인간 조종사와의 성공적인 충돌의 중요성은 무엇인가요?
A: Vista X-62A의 성공은 AI가 항공 대공전과 같은 복잡하고 동적인 상황을 처리할 잠재력을 보여줌으로써 공중 전투가 진행되는 방식에 대한 변화를 이끌 수 있다는 것을 보여줍니다.

Q: 시험 중에 어떤 안전 조치가 취해졌나요?
A: 예, 안전은 주요 고려사항이었습니다. 시스템이 정의된 매개변수 내에서 작동하고 필요한 경우 개입할 수 있도록 두 명의 조종사가 모니터링했습니다.

주요 도전과 논쟁:

– 안전 문제: 전쟁의 예측할 수 없는 환경에서 AI가 안전하게 운용되고 의도대로 작동하는 것에 대한 과제가 있습니다.
– 윤리적 영향: 전투에서 AI 사용은 전통적으로 인간이 하는 적대적 상황에서의 결정을 통제하는 윤리적 문제를 제기합니다.
– 신뢰성: AI 의존은 실패하거나 침해당할 수 있는 기술에 대한 너무 의존에 따른 잠재적으로 재앙적 결과를 초래할 수 있습니다.

장점:

– 병력 증강: AI 조종사는 결국 한 명의 인간이 여러 대의 AI 장비를 제어하거나 혹은 함께 사용할 수 있도록 하여 전투능력을 크게 증대시킬 수 있습니다.
– 인명 위험 감소: AI는 인류 조종사에게는 너무 위험한 미션을 수행할 수 있어서 생명을 잃는 위험을 줄일 수 있습니다.
– 성능 향상: AI는 인간의 물리적 한계를 넘어 더 많은 정보를 빠르게 처리하고 가능한 기동을 수행할 수 있습니다.

단점:

– 기술적 도전: 혼돈스러운 전투 상황을 신뢰할 수 있는 방법으로 해석할 수 있는 AI를 개발하는 것은 기술적으로 어려움을 겪고 있습니다.
– 윤리적과 법적 문제: 전투 상황에서 AI의 배치는 AI 행동에 대한 책임을 포함하여 심각한 윤리적 및 법적 문제를 제기할 수 있습니다.
– 사이버 보안: AI 시스템은 사이버 공격에 취약하며 상대방이 제어권을 획들할 수 없도록 강력한 보호가 필요합니다.

국방 플랫폼 내에서 AI를 통합하는 정보나 개발에 대한 자세한 내용을 찾고자 하는 분들은 미국 공군의 공식 웹사이트 미국 공군나 DARPA의 웹사이트 DARPA를 방문하실 수 있습니다.

The source of the article is from the blog anexartiti.gr

Privacy policy
Contact