La Guerre en Gaza : L’éthique de l’Intelligence Artificielle au cœur du Conflit

Le conflit en cours entre Israël et le Hamas à Gaza se déroule dans une région complexe et volatile. Les Forces de Défense Israéliennes (FDI) se sont appuyées sur un programme d’IA appelé « Lavender » pour identifier les cibles à Gaza depuis le début de la guerre. Alors que les FDI soutiennent que la prise de décision humaine est cruciale pour les décisions de ciblage, un récent rapport d’enquête de +972 Magazine et Local Call suggère que les examens humains des cibles de l’IA sont souvent brefs et pourraient durer aussi peu que 20 secondes.

Le système d’IA Lavender présente toujours un taux d’erreur de 10% en termes de précision du ciblage, posant un risque significatif de bombarder par erreur des individus partageant des noms avec des membres du Hamas ou ayant hérité d’un numéro de téléphone récemment utilisé. Cette imprécision augmente les chances de dommages collatéraux et de nouvelles victimes civiles.

Un dilemme éthique auquel est confronté le renseignement israélien est la présence de civils à proximité des cibles présumées. Dans les premières semaines du conflit, les commandants israéliens auraient jugé acceptable de tuer jusqu’à 15 à 20 civils innocents pour chaque membre du Hamas de bas niveau ciblé. Ce nombre a augmenté à des centaines pour les membres plus élevés du Hamas.

Le rapport +972 révèle également que les présumés membres de bas niveau du Hamas sont ciblés avec des « bombes idiotes », moins précises, afin d’économiser des « bombes intelligentes » plus coûteuses pour les individus de rang supérieur. Cette stratégie entraîne plus de dommages collatéraux et augmente le nombre de victimes civiles.

Le dilemme éthique auquel est confronté le renseignement israélien est la présence de civils à proximité des cibles présumées. Dans les premières semaines du conflit, les commandants israéliens auraient jugé acceptable de tuer jusqu’à 15 à 20 civils innocents pour chaque membre du Hamas de bas niveau ciblé. Ce nombre a augmenté à des centaines pour les membres plus élevés du Hamas.

Le rapport +972 révèle également que les présumés membres de bas niveau du Hamas sont ciblés avec des « bombes idiotes », moins précises, afin d’économiser des « bombes intelligentes » plus coûteuses pour les individus de rang supérieur. Cette stratégie entraîne plus de dommages collatéraux et augmente le nombre de victimes civiles.

Un des éléments les plus troublants réside dans le fait que le système d’IA Lavender excelle à suivre les cibles choisies jusqu’à leur domicile, où les frappes aériennes sont jugées les plus efficaces. Malheureusement, cela signifie également que les maisons de ces cibles deviennent elles-mêmes des cibles, entraînant la mort de leurs épouses, enfants et autres membres de leur famille. De manière choquante, le système d’IA est plus efficace pour localiser le domicile de la cible que pour déterminer si la cible est réellement présente. Cela a conduit à des cas où des familles entières sont tuées sans raison.

Une opération en particulier, nommée de manière inquiétante « Où est Papa ? », met en lumière la sombre réalité de l’utilisation de l’IA par Israël dans ce conflit. Cela rappelle de manière inquiétante l’utilisation historique de nouvelles technologies pour causer des destructions, des mitrailleuses de la Première Guerre mondiale au gaz Zyklon B dans les camps de la mort nazis. La montée en puissance de l’IA porte cette problématique à un nouveau niveau troublant, où les décisions de vie et de mort sont confiées à des machines pour éviter toute responsabilité morale.

Les récits provenant de Gaza rappellent de manière poignante le coût humain de la guerre et les implications éthiques de la dépendance à l’IA. Il est essentiel que nous continuions à remettre en question et à contester l’utilisation de ces technologies, en veillant à ce que la poursuite des objectifs militaires ne l’emporte pas sur la valeur de la vie humaine.

FAQ

The source of the article is from the blog coletivometranca.com.br

Privacy policy
Contact