Die Ethik und Genauigkeit von KI im Krieg: Neue Perspektiven

In jüngster Zeit wurde bekannt, dass israelische Streitkräfte ein fortschrittliches KI-Tool namens ‚Lavender‘ einsetzen, um Zehntausende von Palästinensern im Gazastreifen zur Ermordung zu markieren. Die Verwendung dieser neuen Technologie hat ernsthafte Bedenken hinsichtlich der Genauigkeit der Ziele aufgeworfen und Fragen zu zivilen Opfern aufgeworfen.

Laut einem Bericht des israelischen Journalisten Yuval Abraham, der mit mehreren israelischen Geheimdienstoffizieren unter der Bedingung der Anonymität gesprochen hat, spielte Lavender eine zentrale Rolle bei den beispiellosen Bombardierungen von Palästinensern während des laufenden Konflikts. Besonders alarmierend ist, dass das Militär die Ausgabe der KI-Maschine behandelt hat, als handele es sich um eine menschliche Entscheidung, was zu einer schnellen Auswahl von Zielen ohne gründliche Überprüfung geführt hat.

Das Lavender-System ist hauptsächlich darauf ausgelegt, potenzielle Bombenziele innerhalb der militärischen Flügel der Hamas und des Palästinensischen Islamischen Dschihad (PIJ) zu identifizieren. In den ersten Wochen des Konflikts verließ sich die israelische Armee stark auf Lavender und markierte etwa 37.000 Personen als Verdächtige und ihre Häuser als potenzielle Ziele. Es sollte jedoch angemerkt werden, dass das System einen Fehlerbereich von rund 10 Prozent aufweist und oft Personen mit lockeren Verbindungen oder überhaupt keiner Verbindung zu militanten Gruppen markiert.

Ein weiterer besorgniserregender Aspekt ist der Ansatz des Militärs bei der Zielauswahl. Die israelische Armee griff hauptsächlich Personen in ihren Häusern an, oft nachts, wenn ihre Familien anwesend waren. Diese Strategie erleichterte die Lokalisierung der Ziele in ihren Privatwohnungen. Ein weiteres automatisiertes System, bekannt als „Wo ist Papa?“, wurde ebenfalls verwendet, um die gezielten Personen zu verfolgen und Bombenangriffe auszulösen, wenn sie ihre Familienhäuser betraten.

Obwohl der Armee umfassende Genehmigungen erteilt wurden, Lavenders Todeslisten zu übernehmen, gab es kaum Anforderungen an eine gründliche Prüfung der Entscheidungen der Maschine oder der Rohdaten, auf denen die Entscheidungen beruhten. Menschliches Personal diente mehr als „Gummistempel“ für die Entscheidungen der KI-Maschine und benötigte nur etwa 20 Sekunden, um einen Bombenangriff zu autorisieren.

Trotz der bekannten Fehler im System beschloss das Militär, die erlaubte Anzahl von Zivilisten, die bei einem Angriff auf ein Ziel getötet werden konnten, zu lockern. Darüber hinaus berechnete die automatisierte Software die Anzahl von Zivilisten in jedem Haushalt fehlerhaft, was die Risiken von zivilen Opfern weiter verschärfte.

Während der Konflikt weiterhin anhält, wachsen die Bedenken hinsichtlich des Gleichgewichts zwischen der gezielten Bekämpfung legitimer Bedrohungen und der Minimierung des zivilen Schadens. Der Einsatz von KI-Technologie im Krieg wirft komplexe ethische Fragen auf, die sorgfältig überdacht werden müssen. Das richtige Gleichgewicht zwischen Genauigkeit und Vermeidung von zivilen Opfern ist entscheidend und erfordert menschliche Aufsicht, um unnötigen Verlust unschuldiger Leben zu verhindern.

Häufig gestellte Fragen (FAQ)

Was ist Lavender und wie funktioniert es?
Lavender ist ein fortschrittliches KI-Tool, das von israelischen Streitkräften eingesetzt wird, um vermutete Operative innerhalb der militärischen Flügel der Hamas und des Palästinensischen Islamischen Dschihad (PIJ) als potenzielle Bombenziele zu markieren. Es verwendet Algorithmen, um Personen basierend auf verschiedenen Geheimdienstdaten zu identifizieren und zu verfolgen.

Warum gibt es Bedenken hinsichtlich ziviler Opfer?
Die Verwendung von Lavender hat Bedenken ausgelöst, da das System trotz seiner hohen Genauigkeit bei der Identifizierung von Hamas-Niedrigstufen-Operativen einen Fehlerbereich von etwa 10 Prozent aufweist. Dies hat zu zivilen Todesfällen und der Zielauswahl von Personen geführt, die lockere Verbindungen oder überhaupt keine Verbindung zu militanten Gruppen haben.

Warum hat das israelische Militär hauptsächlich Einzelpersonen in ihren Häusern angegriffen?
Die Zielauswahl von Einzelpersonen in ihren Häusern, oft nachts, wenn ihre Familien anwesend waren, wurde aus taktischer Sicht als vorteilhaft angesehen. Dadurch wurde die Lokalisierung der Ziele und die Minimierung von Kollateralschäden an umliegender Infrastruktur erleichtert.

Was ist die Rolle des Systems „Wo ist Papa?“
Das System „Wo ist Papa?“ ist ein zusätzliches automatisiertes System, das verwendet wurde, um die gezielten Personen zu verfolgen und Bombenangriffe auszulösen, wenn sie ihre Familienhäuser betraten. Es arbeitete zusammen mit Lavender, um genaue Zeitpunkte und die Durchführung der Angriffe sicherzustellen.

Welche Maßnahmen werden ergriffen, um die Bedenken anzusprechen?
Da die ethischen Implikationen und Risiken bei der Verwendung von KI-Technologie im Krieg offensichtlicher werden, gibt es einen wachsenden Ruf nach verstärkter menschlicher Aufsicht und strengeren Prüfungsprozessen. Ein ausgewogenes Verhältnis zwischen der gezielten Bekämpfung legitimer Bedrohungen und der Minimierung zivilen Schadens bleibt eine Herausforderung, die weitere Untersuchungen erfordert.

The source of the article is from the blog trebujena.net

Privacy policy
Contact