A Realidade da Guerra de Inteligência Artificial: Expondo as Consequências Não Intencionais

O uso recente de um sistema de inteligência artificial (IA) pelo exército israelense para gerar listas de alvos para possíveis ataques aéreos em Gaza trouxe atenção para as implicações da IA militar. De acordo com um relatório publicado pela organização sem fins lucrativos +972 Magazine, o sistema conhecido como Lavender foi utilizado juntamente com outros sistemas de IA para identificar e assassinar supostos militantes, resultando em significativas vítimas civis.

Embora as Forças de Defesa de Israel neguem muitas das afirmações do relatório, declarando que Lavender não é um sistema de IA, mas sim um banco de dados para cruzar fontes de inteligência, outras fontes confirmam o uso de IA em operações militares israelenses. Em 2021, o Jerusalem Post reportou que Israel empregou sistemas de aprendizado de máquina para identificar alvos durante um conflito com o Hamas. Além disso, um sistema de IA chamado Habsora foi mencionado em um relatório anterior da +972, o qual automaticamente identifica prédios e instalações potenciais de militantes para bombardeio.

O potencial da IA no âmbito militar não se restringe a Israel. Países como os Estados Unidos e a China também estão investindo em sistemas de IA para fins militares. Os defensores argumentam que a IA pode levar a decisões mais rápidas, maior precisão e menor número de baixas. No entanto, existem preocupações sobre a falta de supervisão humana e o potencial de erros em alvos gerados pela IA.

O recente relatório da +972 afirma que Lavender automatiza o processo de identificação de alvos, mas pode ter critérios mais frouxos e padrões de evidência mais baixos, levando a erros em aproximadamente 10% dos casos. O relatório também sugere que os alvos estão sendo bombardeados em suas próprias casas como primeira opção, resultando em vítimas civis.

As preocupações éticas e legais em torno da IA militar têm sido amplamente ignoradas. Atualmente, não há regras universalmente aceitas ou legalmente vinculantes que regulem o seu uso. No entanto, houve alguns avanços para abordar essas preocupações. As Nações Unidas têm discutido o uso de “sistemas de armas autônomas letais” por mais de uma década, e a Assembleia Geral da ONU recentemente votou a favor de uma resolução preliminar afirmando que algoritmos não devem ter controle total sobre decisões envolvendo a morte. Os Estados Unidos também lançaram uma declaração sobre o uso responsável da IA e da autonomia militar, que recebeu apoio de vários países.

Apesar desses esforços, as regulamentações internacionais sobre o uso de IA militar têm dificuldade em acompanhar o rápido avanço da tecnologia. À medida que os exércitos ao redor do mundo adotam sistemas de IA para a guerra, as consequências não intencionais e os possíveis danos humanitários se tornam mais evidentes.

A promessa de uma guerra precisa habilitada pela IA ainda não foi totalmente realizada. Relatórios sobre o uso de sistemas de IA em Gaza demonstram as limitações e as consequências não intencionais de depender exclusivamente de algoritmos para decisões de alvo. É vital abordar os dilemas éticos e morais associados à IA militar, garantindo que a supervisão humana e as regulamentações internacionais sejam estabelecidas para evitar o uso indevido desta poderosa tecnologia.

FAQ

The source of the article is from the blog aovotice.cz

Privacy policy
Contact