Üblicherweise verlässt sich das Militär bei der Zielerfassung auf menschliche Quellen und Beobachtungen. Doch das israelische Militär hat sich einem Bericht zufolge (auch) auf die Zielerfassung durch eine Künstliche Intelligenz (KI) verlassen. Die Tötung von Zivilisten wurde dabei billigend in Kauf genommen. Ist das die Zukunft der Kriegsführung?
Wer selbst im Militärdienst war, kennt die Übungen zu “beobachten und melden”, die auch bei der Aufklärung von potenziellen Zielen für Artillerie- und Luftangriffe helfen. Solche Aufgaben sind im Kriegsfall jedoch unter Umständen höchst gefährlich, sodass man mittlerweile zunehmend auf Drohnen und die Satellitenüberwachung setzt.
Aber auch hier sind es üblicherweise menschliche Augen, die über Angriffe entscheiden. Dies ist jedoch im Gaza-Feldzug Israels nicht immer der Fall, wie ein regionaler Bericht erklärt. So heißt es dort:
Eine neue Untersuchung von +972 Magazine und Local Call enthüllt, dass das israelische Militär ein auf künstlicher Intelligenz basierendes Programm namens “Lavender” entwickelt hat, das hier zum ersten Mal vorgestellt wird. Nach Aussage von sechs israelischen Geheimdienstoffizieren, die alle während des aktuellen Kriegs gegen den Gazastreifen gedient haben und direkt an der Verwendung von KI zur Generierung von Zielen für Attentate beteiligt waren, spielte Lavender eine zentrale Rolle bei den beispiellosen Bombardierungen von Palästinensern, insbesondere in den frühen Phasen des Kriegs. Tatsächlich behandelte das Militär laut den Quellen die Ergebnisse der KI-Maschine “im Wesentlichen so, als wäre es eine menschliche Entscheidung”.
Quelle: +972 Magazine, 972mag.com
In dem Bericht wird erklärt, dass das Lavender-KI-System in den ersten Wochen der Militäroperation im Gazastreifen dazu genutzt wurde, um “alle verdächtigen Operateure in den militärischen Flügeln der Hamas und des Palästinensischen Islamischen Dschihad (PIJ), einschließlich niederrangiger, als potenzielle Bombenziele zu markieren.” Die israelischen Militärs waren demnach zu Beginn fast ausschließlich auf die KI angewiesen, welche ganze 37.000 Palästinenser und deren Häuser als verdächtige Militante erfasste.
Die Tötungslisten von Lavender wurden den Quellen zufolge ohne ausreichende menschliche Überprüfung übernommen. Demnach hatte das Militärpersonal pro Ziel gerade einmal 20 Sekunden Zeit, um einen Luftangriff zu autorisieren oder abzulehnen. Und das bei einer Fehlerquote von etwa zehn Prozent. Zudem wurden die Zielpersonen demnach zumeist nachts in ihren Häusern angegriffen, wo sie mit ihren Familien zusammen waren. Dies trieb auch die zivile Opferquote deutlich in die Höhe. Der Grund dafür: Es sei leichter, die anvisierten Personen in ihren privaten Häusern zu lokalisieren als sonst irgendwo.
Weiters heißt es in dem Bericht: “Weitere automatisierte Systeme, darunter eines namens “Where’s Daddy?”, ebenfalls hier zum ersten Mal enthüllt, wurden speziell verwendet, um die Zielpersonen zu verfolgen und Luftangriffe durchzuführen, wenn sie sich in die Häuser ihrer Familien begeben hatten.”
Beim Zielen auf angeblich niederrangige Militante, die von Lavender markiert wurden, bevorzugte das Militär nach Angaben der Quellen den Einsatz von ungelenkten Raketen, sogenannten “dummen” Bomben, die ganze Gebäude und ihre Bewohner zerstören können und zu erheblichen Opfern führen. Während des Militäreinsatzes im Gazastreifen habe das Militär demnach beschlossen, für jeden von Lavender markierten niederrangigen Hamas-Operateur bis zu 15 oder 20 zivile Todesopfer zu akzeptieren.
In der Vergangenheit hatte das Militär bei der Tötung von niederrangigen Militanten keine “Kollateralschäden” autorisiert. Bei gezielten Tötungen von hochrangigen Hamas-Offiziellen mit dem Rang eines Bataillons- oder Brigadekommandanten habe das Militär auf mehreren Gelegenheiten die Tötung von mehr als 100 Zivilisten autorisiert.
Dieser Bericht wirft ein neues Licht auf die israelische Militäroperation im Gazastreifen und verdeutlicht, dass die israelische Führung die Tötung von Zivilisten geflissentlich in Kauf genommen hat. Ganz nach dem Motto, wonach jeder, der sich in der Nähe von Militanten und Extremisten aufhält, ebenfalls ein legitimes Ziel ist. Auch zeigt es sich, dass solche KI-Systeme sehr fehleranfällig sind und eine umfassende menschliche Übersicht und Kontrolle benötigen.
Doch es ist anzunehmen, dass in Zukunft wohl noch mehr solcher Programme auf Basis von Künstlicher Intelligenz bei Militäreinsätzen weltweit eingesetzt werden, was jedoch die Zahl der zivilen Todesopfer deutlich in die Höhe treiben würde. Insbesondere dann, wenn solche KI-Programme autonom und völlig automatisiert zum Einsatz kommen.