Überprüfung der Künstlichen Intelligenz in Militäroperationen in Israel

Die israelische Armee nutzte ein innovatives künstlich-intelligentes Zielsystem namens „Lavender“ während ihrer Operationen im Gazastreifen. Obwohl dieses AI-System effiziente Hilfe bei der Auswahl von Bombenzielen bietet, hat es aufgrund des geringen menschlichen Aufsichtsanteils Bedenken aufgeworfen. Ein kürzlich veröffentlichter Bericht beleuchtete die Umsetzung von Lavender, wobei militärisches Personal häufig schnell die von der KI ausgewählten Ziele genehmigte, ohne diese gründlich zu prüfen.

Obwohl eine Studie einen Fehler von 10% in der Bezeichnung von Lavender feststellte, wenn nicht-militante Personen zum Ziel wurden, drehte sich der Genehmigungsprozess hauptsächlich um die Bestätigung des Geschlechts des Ziels. Überraschenderweise erhielten Quellen die Erlaubnis, die Todeslisten von Lavender nur zwei Wochen nach Beginn des Konflikts automatisch zu übernehmen. Darüber hinaus führte das Militär angeblich Operationen durch, die sich auf bestimmte Personen konzentrierten und häufig ihre Häuser angriffen, während ihre Familien anwesend waren. Diese beunruhigende Taktik wurde einem weiteren KI-Programm namens „Wo ist Papa?“ zugeschrieben.

In einigen Fällen, aufgrund von Verzögerungen im Programm „Wo ist Papa?“, wurden unschuldige Familien tragischerweise getötet, auch wenn das Hauptziel nicht anwesend war. Der Umfang, in dem diese Programme noch in Verwendung sind, ist unklar, allerdings betonte der Bericht ihre signifikante Aktivität in den ersten Wochen des Krieges. Ein ungenannter hochrangiger Offizier, genannt „B“, erklärte, dass die Luftwaffe alle markierten Häuser um 5 Uhr morgens bombardieren würde, was zum Tod von Tausenden von Menschen führte.

Aufgrund dieser Programme wurden Zehntausende von Zielen identifiziert, was zu zahlreichen zivilen Opfern führte, darunter Frauen, Kinder und Unbeteiligte im Kampf. Dieser Bericht betonte weiterhin globale Bedenken hinsichtlich der hohen Anzahl von zivilen Opfern im Gazastreifen. Tausende Palästinenser haben während der militärischen Kampagne Israels, die als Reaktion auf den initialen Angriff der Hamas begann, ihr Leben verloren.

Die internationale Gemeinschaft hat Empörung über die jüngsten israelischen Angriffe geäußert, insbesondere nach der vorsätzlichen Tötung von sieben freiwilligen Lebensmittelhelfern mit der World Central Kitchen. Darüber hinaus deuten Berichte darauf hin, dass der Gazastreifen derzeit mit der Bedrohung einer beispiellosen Hungersnot konfrontiert ist, die auf eingeschränkten Zugang zu Nahrungsmitteln und Grundbedürfnissen zurückzuführen ist, was teilweise auf israelische Kontrollen an den Grenzübergängen zurückzuführen ist. Als Reaktion auf den steigenden Druck forderte Präsident Joe Biden bei einem Gespräch mit dem israelischen Premierminister Benjamin Netanyahu einen sofortigen vorübergehenden Waffenstillstand.

Die israelische Armee bestritt in einer Stellungnahme die Behauptung, dass künstliche Intelligenz eine wesentliche Rolle bei der Identifizierung von Zielen spiele. Sie behaupteten, sie sei ein Werkzeug, das von Analysten verwendet und unabhängigen Prüfungen unterzogen werde, um die Einhaltung des Völkerrechts und militärischer direktiven sicherzustellen. Das Militär bestritt auch die Existenz einer „Todesliste“ oder einer gezielten Ausrichtung auf Tausende mutmaßlicher Hamas-Kämpfer.

Trotz dieser Einwände haben mehrere ungenannte Quellen die umfangreichen Kollateralschäden bestätigt, die durch das Lavender-Programm verursacht wurden. Sie enthüllten, dass häufig private Häuser angeblicher junger Militanter ins Visier genommen wurden, was zum Tod ganzer Familien führte. Aufgrund zunehmenden internationalen Drucks, der massenhaften Vertreibung von Gazanern und der Zerstörung von Wohnraum, soll die israelische Armee angeblich damit aufgehört haben, Listen von Juniorzielen für Hausbombardements zu erstellen.

Zusammenfassend hat der Einsatz des Lavender-Programms und anderer KI-Programme in den Operationen der israelischen Armee Kontroversen ausgelöst und zu Verurteilungen geführt, aufgrund der signifikanten zivilen Opfer, die aus diesen Taktiken resultierten. Die Verwendung solcher Technologien ohne gründliche menschliche Aufsicht wirft ethische und humanitäre Fragen auf. Die internationale Gemeinschaft setzt sich weiterhin für eine Lösung des Konflikts ein und betont die Notwendigkeit, die Sicherheit der Zivilbevölkerung und humanitäre Bemühungen im Gazastreifen zu priorisieren.

Häufig gestellte Fragen (FAQ):

The source of the article is from the blog maltemoney.com.br

Privacy policy
Contact