美国空军部长将乘坐AI驾驶的F-16战斗机

先进的人工智能正冲上云霄,美国空军正在一架改装的F-16战机中进行自主飞行的实验。美国空军部长弗兰克·肯德尔宣布了他飞行到一架由AI驾驶的F-16中的计划。在参议院听证会上,他表示对技术已经发展到让飞行员的角色可能只是观察有信心。

涉及到的开创性飞行器是X-62A VISTA,这是一个试验平台,结合了来自自主空战行动(AACO)和空战演进(ACE)计划的AI算法,这些计划由空军研究实验室和国防高级研究计划局(DARPA)实施。

这些计划的目标是开发能够在超视距空战中发挥作用的人工智能,这是空中战争的一个具有挑战性的方面。他们的能力在2020年的“AlphaDogfight”比赛中展示出来,Heron Systems开发的AI算法在模拟空战中击败一名经验丰富的F-16飞行员。

在进行了大量的测试飞行后,使用这些AI系统成功参与了超视距作战,下一阶段是测试AI在真实条件下与由人驾驶的F-16对抗。最近,在加利福尼亚的爱德华兹空军基地周围进行了一系列的飞行,X-62A参与了亲密接触的空战。根据美国空军和DARPA的说法,测试是安全进行的,有两名飞行员在机上监督系统。

测试活动始于AI让飞机采取防御姿势,然后进展到更具攻击性的动作。至于哪个飞行员表现更好,AI还是人类,细节尚未披露。正如计划官员所解释的那样,主要目标是评估AI在关键战斗场景中的能力,并推动开发用于空中战斗的有效人机界面。

关键问题与答案:

1. AI驾驶技术对未来战斗机有何深远影响?
AI驾驶技术表明了向更多自主系统在战斗机上的转变,可能会减少对人类飞行员的风险,并利用AI在高压力战斗情况下更快速、更准确的决策能力。

2. 战斗机中使用AI如何改变飞行员培训和人类飞行员的角色?
AI的整合可能会重塑飞行员培训,更注重监督和决策角色,而不是飞行飞机的实际行为。人类飞行员的角色可能会发展为监督AI操作、管理战略决策,并在必要时进行干预。

3. 在使用AI参与致命战斗情况中存在道德考虑吗?
是的,在致命战斗情况下部署AI引起了有关机器在是非生死问题上做出决定、对AI行为负责以及自主武器系统可能被滥用的道德问题。

挑战或争议:

自主性与控制: 在人类监督下平衡AI的自主性,以确保道德和战略决策仍然是一个挑战。
可靠性和安全性: 有必要证明AI驾驶系统是可靠的,并且可以处理突发情况,而不会危及人类生命。
技术障碍: 开发能够适应空中复杂环境的AI将面临重大技术挑战。
安全性: 保护AI系统免受黑客攻击和其他安全漏洞的影响至关重要,特别是军用飞机对于对手来说是高价值目标。

优势:

减少飞行员风险: AI可以执行危险任务,降低对人类飞行员的风险。
增强能力: AI可以比人类更快地处理信息并做出反应,潜在地提高任务效率。
操作可用性: AI驾驶的飞机可以在人类飞行员因疲劳或后勤而限制人驾飞机的情况下部署。

劣势:

人类判断的复杂性: AI可能缺乏经验丰富的人类飞行员那种细微决策和适应能力。
技术依赖性: 对技术的严重依赖可能导致过度自信或减少人类技能。
道德和伦理问题: 将致命力量决策委托给AI引发了道德和伦理问题。

有关美国空军和相关技术的更多信息,请参阅以下链接:美国空军

有关DARPA及其研究项目的更多信息,请参阅以下链接:国防高级研究计划局(DARPA)

The source of the article is from the blog scimag.news

Privacy policy
Contact