미국 공군의 AI 조종 전투기 기술 발전

미국은 F-16 전투기를 조종하는 인공지능(AI)이 일부 분야에서 인간을 능가할 수 있는 시험을 적극적으로 실시하고 있습니다. 이 혁신 기술은 중국으로부터의 잠재적인 경쟁에 대비하기 위해 미국이 9월부터 사용해오고 있습니다.

협회 기자들과 인터뷰한 후, 미국 공군 장관인 프랭크 켄들은 한 시간짜리 비행 중 직접 목격한 시험 내용을 공유했습니다. 그는 전투기에서 AI 기술의 필수성을 강조하며 이처럼 고급 시스템을 사용하지 않을 때 특보위험이 있다고 강조했습니다.

협회 지내와 NBC가 현장 지켜본 이 기술 시험에 대한 구체적인 세부 사항은 보안 문제로 인해 아직 공개되지 않았습니다.

이 시험에서 도출된 주요 포인트는 다음과 같습니다:

– AI 특수 F-16 전투기가 2023년 9월 시험 단계에 들어갔습니다.
– AI 프로토타입은 “Vista”로 불리며 이름이 악명높은 마이크로소프트 운영 체제와 같습니다.
– 시험은 1947년 척 예거가 음속을 돌파한 역사적인 사이트인 에드워즈 공군기지에서 실시됩니다.
– 전투기를 비행시킬 수 있는 AI 개발은 공군에게 어려운 과제입니다.
– 미국은 AI 특수 전투기 약 1000대를 건설할 계획입니다.
– 그 동안 다른 국가는 AI 기술로 근본적으로 같은 고급 전투기 시험을 실시하지 않았습니다.
– 미국 군 관리는 중국의 AI 발전에 대해 염려스러워하고 있지만, 중국이 시허에서 아직 초월하지 못했다고 여겨집니다.

시험 중 AI 기반 Vista는 고속 조종을 실행하여 초당 880km 이상의 속도에 도달하고 비행체에 5배의 중력을 가하는 신속한 조작을 수행했습니다. AI는 또한 비행사가 조종하는 전투기와 약 300m의 거리에서 발롱했습니다.

AI는 우선 시뮬레이터에서 수백만 데이터 포인트를 통해 학습한 후 이를 실제 비행 시험으로 전해집니다. 이후의 비행 데이터는 시뮬레이터로 보내져 AI의 학습 과정을 향상시킵니다.

주요 시험 비행 12차례 후, AI는 일부 케이스에서 인간 비행사를 능가하는 성과를 얻었습니다.

미국이 추구하는 AI 우위는 국가 보안과 경제적인 우려에 주도되며 있습니다. F-35 전투기 생산의 지연으로 인해 약 1.7조달러 정도의 재정 손실이 발생하기도 하지만, 비행사 사상 위험이 없는 더 작고 비용 효율적인 AI 조작 전투기로 이러한 위험을 줄일 수도 있습니다.

그러나 인도주의 그룹들은 AI 조작 전투기의 함의에 대해 경고를 제기했습니다, 특히 군대와 민간 단체 간의 타겟 구별에 관한 문제입니다. 이러한 우려 사항을 해결하기 위해 국제적인 정치적 대응이 즉각적으로 요구된다는 빌겐들이 확증했으나, 켄들은 AI 조작 전투기에 경위 무기 사용 전에 인간 감독관이 급부나 할 것이라고 말했습니다.

주요 질문 및 대답:

미국 공군에게 AI 조작 전투기가 어떤 중요성을 지니는가?
AI 조작 전투기는 항공 전투의 중요한 발전을 대변합니다. 그것들은 고급 작전 능력, 인간의 생명에 대한 위험 감소, 및 훈련 및 배치에서의 비용 효율성을 제공합니다.

미국 공군이 AI 조작 전투기에 직면한 어떤 도전이 있나요?
주요 도전은 전투 조건 하에서 신뢰할 수 있는 성능을 보장하거, 자율 무기 시스템에 대한 윤리적 고려, 사이버 보안 위협 그리고 기존 항공 작전에 대한 안전한 통합과 관련된 문제를 포함합니다.

군사적인 AI에 관련된 어떤 논란이 있나요?
군사적 AI의 윤리적인 영향, 인간의 통제 손실의 가능성, 그리고 국제적 상대국이 유사한 기술을 개발하기 위한 AI 무기 경주를 시작할 위험이 있습니다.

장점과 단점:

장점:
향상된 능력: AI 조작 전투기는 G-힘 제약으로 인해 인간이 할 수 없는 복잡한 동작을 수행할 수 있습니다.
비행사 위험 감소: 자율적 전투기는 고위험 임무 중에 비행사가 위험에 노출되지 않게 합니다.
경제적 효율성: AI 전투기는 비행사 훈련과 유지비용을 낮출 수 있으며, 인간 시스템의 조달 비용을 줄일 수도 있습니다.
운영 준비: AI 시스템은 인간 비행사가 직면하는 물리적, 정신적 피로 요소 없이 일주일 내내 이용 가능합니다.

단점:
윤리적 고려: 전투에서 AI를 투입함으로써 전쟁의 본질과 인명에 대한 심각한 윤리적 질문이 생깁니다.
기술 의존: AI 시스템에 대한 지나치게 의존은 취약성을 야기할 수 있으며, 핵심적인 상황에서 해킹이나 시스템 오류로 이어질 수 있음.
국제적 규범: AI 전원 무기 사용은 국제 전쟁 법과 충돌할 수 있으며, 다른 국가들이 유사한 기술을 개발하는 필요성으로 이어질 수 있습니다.

관련 링크:
미국 공군
국제 레드크로스 위원회

The source of the article is from the blog crasel.tk

Privacy policy
Contact