Forças Armadas dos EUA Mantêm Resultado em Segredo em Histórico Combate entre IA e Piloto Humano

A Força Aérea dos Estados Unidos realizou com sucesso uma simulação de combate aéreo inovadora entre um piloto humano e uma aeronave autônoma controlada por inteligência artificial (IA). Essa simulação, aclamada como um passo importante para abordar as capacidades e o potencial da IA na guerra aérea, ocorreu nos céus acima da Base da Força Aérea de Edwards, na Califórnia.

Um caça F16 passou por modificações significativas para se tornar a Aeronave de Teste de Voo de Estabilidade Variável X62A (VISTA), que então se envolveu em combate próximo com outro F16. O encontro demonstrou como a IA poderia revolucionar as táticas de combate aéreo quando usada ao lado ou contra pilotos humanos.

A Agência de Projetos de Pesquisa Avançada de Defesa dos Estados Unidos (DARPA) divulgou imagens em 17 de abril, fornecendo insights sobre as manobras em alta velocidade de dois caças a jato dentro do alcance visual um do outro, atingindo velocidades de até 1900 quilômetros por hora. A aeronave de teste pilotada por IA conseguiu se aproximar a aproximadamente 610 metros de seu equivalente pilotado por humanos, testando tanto caminhos defensivos quanto ofensivos.

Embora a simulação tenha ocorrido em setembro de 2023, o exército ainda não divulgou qual parte saiu vitoriosa do combate simulado, um termo que se refere a batalhas aéreas de curto alcance onde os oponentes estão à vista uns dos outros.

A mídia científica The Debrief relatou que este evento representa um progresso substancial para o programa Air Combat Evolution (ACE) da DARPA, que tem como objetivo desenvolver sistemas de combate autônomos utilizando IA. O gerente do programa, Tenente-Coronel da Força Aérea Ryan Hefron, observou que o progresso superou as expectativas, mas se absteve de fornecer informações mais detalhadas.

O Secretário da Força Aérea, Frank Kendall, mencionou no vídeo da DARPA que a equipe do X62A demonstrou com segurança combate aéreo dinâmico usando funções autônomas baseadas em aprendizado de máquina, chamando 2023 de ‘o ano em que ACE realizou a aplicação de aprendizado de máquina (IA) no ar.’

Desde o início do programa em dezembro de 2022, o X62A completou 21 voos de teste, durante os quais mais de 100.000 linhas de código-fonte foram modificadas.

Bill Gray, piloto de teste principal na Escola de Pilotos de Teste da Força Aérea dos Estados Unidos, destacou que o programa ACE focou não apenas no combate aéreo, mas também em combates táticos. Ele enfatizou a importância de resolver questões de guerra aérea ao testar sistemas autônomos de IA, sugerindo que essas descobertas poderiam se estender além de sua aplicação imediata para diversos desafios que os sistemas autônomos poderiam encontrar.

Principais Perguntas e Respostas:

1. Por que a Força Aérea dos Estados Unidos está interessada em usar IA no combate aéreo?
A Força Aérea dos Estados Unidos está interessada na tecnologia da IA para potencialmente aprimorar as capacidades de seus pilotos e manter uma vantagem tecnológica na guerra aérea. Aeronaves controladas por IA podem processar vastas quantidades de dados mais rapidamente do que os humanos, reagir mais rapidamente em situações de combate e executar manobras complexas que possam estar além dos limites físicos humanos.

2. Que preocupações podem surgir ao usar IA em aeronaves militares?
Existem preocupações sobre as implicações éticas de usar IA em aplicações militares letais, o risco de acidentes devido a mau funcionamento da IA ou interpretação equivocada dos dados, e o potencial de a IA ser hackeada ou usada de forma maliciosa.

3. Quais são as vantagens potenciais de aeronaves controladas por IA em combate?
Aeronaves controladas por IA podem operar sem arriscar a vida humana, têm tempos de reação mais rápidos, custos operacionais reduzidos e a capacidade de conduzir manobras complexas e coordenadas com múltiplos sistemas não tripulados.

Desafios Principais:
Assegurar que as decisões do sistema de IA sejam eticamente aceitáveis, confiáveis e seguras contra ameaças cibernéticas permanece um desafio significativo. O equilíbrio entre o controle humano e a autonomia da IA para evitar engajamentos não intencionais também é uma preocupação crítica.

Controvérsias:
Há um debate em andamento sobre as implicações morais e legais de sistemas autônomos capazes de ações letais, especialmente em relação à responsabilidade e ao processo de tomada de decisões em cenários de combate.

Vantagens:
– Aumento da eficiência da missão ao realizar tarefas repetitivas ou perigosas
– Redução de baixas humanas em operações de combate de alto risco
– Potencial para prontidão 24 horas por dia, 7 dias por semana e tempos de resposta rápidos

Desvantagens:
– Questões éticas em torno de decisões letais autônomas
– Preocupações com a confiabilidade da tecnologia e o potencial de mau funcionamento do software
– Risco de adversários potencialmente sequestrarem ou falsificarem sistemas de IA

Você pode encontrar informações adicionais e autorizadas relacionadas ao uso de IA no combate aéreo nos seguintes sites oficiais:
Agência de Projetos de Pesquisa Avançada de Defesa (DARPA)
Força Aérea dos Estados Unidos

Por favor, observe que os URLs são fornecidos apenas para fins de referência e devem ser validados para uso em comunicações ou publicações oficiais.

Privacy policy
Contact