Die Rolle der Künstlichen Intelligenz in der israelischen Militärstrategie

In einer aktuellen Untersuchung wurde bekannt, dass das israelische Militär Künstliche Intelligenz (KI) einsetzt, um bei der Identifizierung von Bombenzielen im Gazastreifen zu helfen. Diese Enthüllung, die von der +972 Magazine und Local Call ans Licht gebracht wurde, wirft ernsthafte Bedenken hinsichtlich der Genauigkeit und ethischen Implikationen auf, die mit einem starken Einsatz von KI für solche Zwecke verbunden sind. Laut sechs israelischen Geheimdienstbeamten, die an dem mutmaßlichen Programm beteiligt sind, hat das auf KI basierende Werkzeug mit dem Namen „Lavender“ eine gemeldete Fehlerquote von 10%.

Obwohl die Israelischen Verteidigungsstreitkräfte (IDF) die Existenz des Tools bestätigten, bestritten sie den Einsatz von KI zur Identifizierung von Verdächtigen. Sie räumten jedoch ein, dass Informationssysteme Analysten während des Zielidentifizierungsprozesses als Werkzeuge dienen. Die IDF betonte ihr Engagement, den Schaden für Zivilisten zu minimieren, und erklärte, dass Analysten identifizierte Ziele unabhängig gemäß internationalem Recht und den Direktiven der IDF überprüfen müssen.

Im Gegensatz zu den Behauptungen der IDF enthüllte ein an dem Programm beteiligter Offizieller, dass menschliches Personal oft nur eine minimale Rolle spielte und nur etwa 20 Sekunden damit verbrachte, jedes Ziel vor der Autorisierung von Luftangriffen zu überprüfen. Dies lässt Zweifel an dem Maß an Genauigkeit und Rücksichtnahme auf potenzielle zivile Opfer aufkommen.

Die Untersuchung erfolgt zu einer Zeit, in der die internationale Überwachung der israelischen Militärkampagne zunimmt. Vorfälle von gezielten Luftangriffen, bei denen ausländische Hilfsarbeiter getötet wurden, haben erhebliche Aufmerksamkeit erregt. Das Gesundheitsministerium von Gaza berichtete über mehr als 32.916 Todesfälle aufgrund der Belagerung Israels in Gaza, die zu einer humanitären Krise und weit verbreiteten Hungersnot führte, von der drei Viertel der Bevölkerung im nördlichen Gaza betroffen sind, wie von den Vereinten Nationen berichtet.

Yuval Abraham, der Autor der Untersuchung, hatte zuvor Licht darauf geworfen, dass Israel stark auf KI angewiesen ist, um Ziele mit minimaler menschlicher Aufsicht zu generieren. Das israelische Militär bestreitet jedoch den Einsatz eines KI-Systems zur Identifizierung von Terroristen, gibt aber die Verwendung einer Datenbank zur Quellen-Querverweisung von Geheimdienstinformationen über militante Kämpfer terroristischer Organisationen zu.

Die Untersuchung ergab auch, dass die israelische Armee systematisch nächtliche Angriffe auf Ziele in Wohnhäusern durchführte, was oft zum Tod unschuldiger Palästinenser, einschließlich Frauen und Kinder, führte. Die Verwendung von ungesteuerten „dummen“ Bomben, die erheblichen Kollateralschaden verursachen können, wurde von der Armee bevorzugt, wenn angeblich junge Militante angegriffen wurden.

Laut einem Bericht von CNN waren fast die Hälfte der Munitionen, die im Gazastreifen in einer aktuellen Kampagne abgeworfen wurden, ungesteuerte dumme Bomben. Dies stellt eine größere Bedrohung für Zivilisten dar, insbesondere in dicht besiedelten Gebieten wie Gaza. Die IDF behauptet, dass Angriffe nur durchgeführt werden, wenn der erwartete Kollateralschaden im Vergleich zum militärischen Vorteil nicht übermäßig ist und Anstrengungen unternommen werden, um den Schaden für Zivilisten zu minimieren.

Der Einsatz von KI im Targeting-Prozess des israelischen Militärs wirft kritische ethische Fragen auf. Es besteht die Notwendigkeit nach mehr Transparenz, Verantwortlichkeit und menschlicher Beteiligung an Entscheidungsprozessen, um den Schutz unschuldiger Leben zu gewährleisten. Die internationale Gemeinschaft muss in einen Dialog treten und die Probleme ansprechen, um die Grundsätze des humanitären Völkerrechts zu schützen.

The source of the article is from the blog tvbzorg.com

Privacy policy
Contact