L’Impact de l’Intelligence Artificielle sur les Opérations Militaires : Une Nouvelle Perspective

Un récent rapport met en lumière l’utilisation présumée d’une base de données alimentée par l’intelligence artificielle par Israël pour sélectionner des cibles dans la bande de Gaza. Selon le rapport publié par le magazine +972 et Local Call, l’outil, connu sous le nom de « Lavender », aurait été conçu par des scientifiques de données militaires israéliens et aurait passé au crible d’importantes quantités de données de surveillance et d’autres informations pour générer des cibles pour des assassinats.

« Quels sont les principaux avantages de l’utilisation de Lavender ? »

L’utilisation de Lavender est controversée et soulève des inquiétudes quant à l’ampleur de la destruction et au nombre élevé de victimes civiles dans la bande de Gaza. Les conflits passés entre Israël et le Hamas impliquaient un processus de sélection de cibles plus axé sur l’humain, basé sur des données de renseignement et d’autres informations. Cependant, l’introduction de Lavender, en période de colère et de traumatisme croissants en Israël après une attaque terroriste du Hamas, aurait pu contribuer à un programme de représailles rapide et généralisé.

Les témoignages d’officiers de renseignement israéliens suggèrent que les décisions prises par l’outil Lavender étaient souvent considérées comme un « coup de tampon » par le personnel humain, malgré le fait que le système marquait parfois des personnes ayant des liens ténus avec des groupes militants ou aucun lien du tout. Cela pourrait expliquer pourquoi Israël a utilisé des bombes moins précises, lourdes et non guidées, sur des cibles supposées sélectionnées par Lavender, entraînant des dégâts importants et des pertes civiles. Les responsables de Tsahal ne voulaient apparemment pas gaspiller des munitions guidées de précision plus coûteuses contre des membres moins importants du Hamas identifiés par le programme.

L’utilisation de Lavender et les stratégies de ciblage d’Israël ont suscité de vives préoccupations, certains critiques faisant valoir qu’il est difficile de distinguer entre les cibles militaires légitimes et les civils dans la densément peuplée bande de Gaza. Des organisations de défense des droits de l’homme, notamment Amnesty International, ont exhorté Israël à utiliser les armes les plus précises disponibles et à réduire au minimum les pertes civiles.

En réponse au rapport, Tsahal a déclaré que certaines des allégations étaient infondées. Ils affirment que Lavender n’est pas un système d’intelligence artificielle mais une base de données utilisée pour croiser des sources de renseignement afin d’informer les analystes dans le processus d’identification des cibles.

L’incident récent impliquant une frappe de drone israélien sur un convoi de la World Central Kitchen, entraînant la mort de sept travailleurs humanitaires, a attiré davantage l’attention sur la conduite d’Israël lors de ce conflit. En réponse, le Président Biden a appelé Israël à changer de cap et à prendre des mesures pour mieux protéger les civils et faciliter la distribution de l’aide. De plus, des centaines d’avocats et de juges britanniques ont exhorté leur gouvernement à suspendre les ventes d’armes à Israël pour éviter la complicité dans d’éventuelles violations du droit international.

Alors que l’utilisation de l’intelligence artificielle dans les opérations militaires offre des avantages potentiels, elle soulève également des questions éthiques sur l’exactitude de la sélection des cibles et le risque de pertes civiles. Alors que les conflits continuent d’évoluer, il est crucial que les nations veillent à ce que l’utilisation de la technologie de l’IA en temps de guerre respecte le droit international humanitaire et minimisent les dommages causés aux civils.

The source of the article is from the blog motopaddock.nl

Privacy policy
Contact