Utilisation controversée de l’IA par Israël : Équilibrer la précision et la protection des civils

Dans une récente révélation, les forces israéliennes ont recours à un outil avancé d’IA nommé « Lavande » pour cibler des dizaines de milliers de Palestiniens à Gaza en vue d’assassinats. L’utilisation de cette nouvelle technologie suscite de sérieuses inquiétudes quant à la précision des cibles tout en soulevant des questions sur les pertes civiles.

Selon un rapport compilé par le journaliste israélien Yuval Abraham, qui a rencontré plusieurs officiers du renseignement israélien sous couvert d’anonymat, Lavande a joué un rôle central dans les bombardements sans précédent des Palestiniens lors du conflit en cours. Ce qui est particulièrement alarmant, c’est que l’armée a traité les résultats de la machine IA comme s’il s’agissait d’une décision humaine, conduisant ainsi à la sélection rapide de cibles sans vérification approfondie.

Le système Lavande est principalement conçu pour identifier les cibles potentielles de bombardements au sein des factions militaires du Hamas et du Jihad islamique palestinien (JIP). Pendant les premières semaines du conflit, l’armée israélienne s’est fortement appuyée sur Lavande, marquant environ 37 000 individus comme des militants présumés et leurs foyers comme des cibles potentielles. Cependant, il convient de noter que le système est connu pour avoir une marge d’erreur d’environ 10 %, marquant souvent des individus ayant des liens lâches ou aucun lien du tout avec des groupes militants.

Un aspect préoccupant est l’approche de l’armée en termes de ciblage. L’armée israélienne visait principalement des individus dans leurs foyers, souvent pendant la nuit en présence de leurs familles. Cette stratégie permettait de localiser plus facilement les cibles dans leurs résidences privées. Un autre système automatisé, connu sous le nom de « Où est Papa? », était également utilisé pour suivre les individus ciblés et déclencher des bombardements lorsqu’ils entraient dans leur domicile familial.

Malgré les erreurs connues du système, l’armée a décidé de réduire le nombre de civils autorisés à être tués lors des bombardements d’une cible. De plus, un logiciel automatisé calculait de manière inexacte le nombre de non-combattants dans chaque foyer, aggravant ainsi les risques de pertes civiles.

A mesure que le conflit se poursuit, les inquiétudes grandissent quant à l’équilibre entre le ciblage efficace des menaces légitimes et la réduction des dommages civils. L’utilisation de la technologie de l’IA dans la guerre soulève des questions éthiques complexes qui exigent une réflexion attentive. Trouver le bon équilibre entre la précision et l’évitement des pertes civiles est crucial et nécessite une supervision humaine pour prévenir la perte inutile de vies innocentes.

Questions Fréquemment Posées (FAQ)

The source of the article is from the blog guambia.com.uy

Privacy policy
Contact