La Réalité de la Guerre de l’IA : Exposition des Conséquences Non Désirées

L’utilisation récente d’un système d’intelligence artificielle (IA) par l’armée israélienne pour générer des listes de cibles potentielles pour des frappes aériennes à Gaza a attiré l’attention sur les implications de l’IA militaire. Selon un rapport publié par le média à but non lucratif +972 Magazine, le système connu sous le nom de Lavender a été utilisé aux côtés d’autres systèmes d’IA pour cibler et assassiner des militants présumés, entraînant des pertes civiles significatives.

Alors que les Forces de Défense Israéliennes nient bon nombre des affirmations du rapport, affirmant que Lavender n’est pas un système d’IA mais une base de données pour recouper des sources de renseignements, d’autres sources confirment l’utilisation de l’IA dans les opérations militaires israéliennes. En 2021, le Jerusalem Post a rapporté qu’Israël avait utilisé des systèmes d’apprentissage automatique pour identifier des cibles lors d’un conflit avec le Hamas. De plus, un système d’IA appelé Habsora a été mentionné dans un précédent rapport du +972, qui identifie automatiquement les bâtiments et installations potentiellement militants à bombarder.

Le potentiel de l’IA dans le domaine militaire n’est pas limité à Israël. Des pays comme les États-Unis et la Chine investissent également dans des systèmes d’IA à des fins militaires. Les partisans soutiennent que l’IA peut conduire à une prise de décision plus rapide, une plus grande précision et une réduction des pertes. Cependant, des inquiétudes subsistent quant au manque de supervision humaine et aux erreurs potentielles dans les cibles générées par l’IA.

Le récent rapport du +972 affirme que Lavender automatise le processus d’identification des cibles mais peut avoir des critères moins stricts et des normes de preuve plus bas, entraînant des erreurs dans environ 10% des cas. Le rapport suggère également que les cibles sont d’abord bombardées chez elles, ce qui entraîne des pertes civiles.

Les préoccupations éthiques et légales entourant l’IA militaire ont largement été négligées. Actuellement, il n’existe pas de règles universellement acceptées ou légalement contraignantes régissant son utilisation. Cependant, des développements ont été réalisés pour aborder ces préoccupations. Les Nations Unies discutent de l’utilisation de « systèmes d’armes létales autonomes » depuis plus d’une décennie, et l’Assemblée Générale des Nations Unies a récemment voté en faveur d’un projet de résolution indiquant que les algorithmes ne devraient pas être totalement responsables des décisions impliquant la mort. Les États-Unis ont également publié une déclaration sur l’utilisation militaire responsable de l’IA et de l’autonomie, qui a reçu le soutien de nombreux pays.

Malgré ces efforts, les réglementations internationales sur l’utilisation de l’IA militaire peinent à suivre le rythme de l’avancement rapide de la technologie. À mesure que les armées du monde entier adoptent des systèmes d’IA pour la guerre, les conséquences non désirées et les dangers humanitaires potentiels deviennent plus apparents.

La promesse de la guerre de précision rendue possible par l’IA n’a pas encore été pleinement réalisée. Les rapports sur l’utilisation de systèmes d’IA à Gaza démontrent les limites et les conséquences non voulues du recours uniquement aux algorithmes pour les décisions de ciblage. Il est essentiel d’aborder les dilemmes éthiques et moraux associés à l’IA militaire, en veillant à ce que la supervision humaine et les réglementations internationales soient établies pour prévenir les abus de cette technologie puissante.

**FAQ**

1. Qu’est-ce que Lavender ?
Lavender est un système d’intelligence artificielle (IA) utilisé par l’armée israélienne pour générer des listes de cibles pour des frappes aériennes potentielles à Gaza.

2. L’utilisation de l’IA dans l’armée est-elle limitée à Israël ?
Non, d’autres pays comme les États-Unis et la Chine investissent également dans des systèmes d’IA à des fins militaires.

3. Quelles sont les préoccupations entourant l’IA militaire ?
Il existe des inquiétudes concernant le manque de supervision humaine, les erreurs potentielles dans les cibles générées par l’IA, et les implications éthiques et morales de l’utilisation de systèmes d’IA dans la guerre.

4. Y a-t-il des réglementations internationales régissant l’utilisation de l’IA militaire ?
Actuellement, il n’existe pas de règles claires, universellement acceptées ou légalement contraignantes pour l’IA militaire. Des efforts sont déployés par les Nations Unies et certains pays pour aborder ces préoccupations.

5. Quelles sont les conséquences non désirées de se fier uniquement à l’IA pour les décisions de ciblage ?
Les rapports indiquent que l’utilisation de systèmes d’IA pour les décisions de ciblage peut entraîner des erreurs, des critères moins stricts et des normes de preuve plus basses, entraînant des pertes civiles et des dangers humanitaires.

The source of the article is from the blog foodnext.nl

Privacy policy
Contact