Israel nutzt KI-System Lavender in Gaza: 20 Sekunden für Leben oder Tod

Die israelische Armee setzt für die Suche nach Hamas-Kämpfern auf eine KI. Sie agiert fast autonom, nimmt zivile Opfer in Kauf und verdächtigt Zehntausende.

Satelittenaufnahme zeigt die Zerstörung der Gegend um das Al-Shifa Krankenhaus in Gaza

Die komplette Zerstörung und zivile Opfer werden in Kauf genommen Foto: Maxar Technologies/reuters

Aktuelle Recherchen veranschaulichen die Dystopie des Krieges im Gazastreifen. Laut dem israelisch-palästinensischen Onlinemedium +972 Magazine wendet das israelische Militär ein KI-Programm namens „Lavender“ an, um Hamas-Ziele zu finden. Insgesamt hat die KI mindestens 37.000 Menschen als „Terroristen“ abgestempelt und zum Abschuss freigegeben.

Den Informationen zufolge, die auf Whistleblowern basieren, werden zivile Opfer dabei bewusst in Kauf genommen. So seien bei Hamas-Kämpfern mit niedrigem Rang 15 bis 20 zivile Opfer tolerabel. Bei hochrangigen Kommandanten werden gar über 100 zivile Todesopfer toleriert.

Ebenso schockierend ist der Umstand, dass Wohnblocks mit Familien gezielt bombardiert werden, weil laut dem Militär die Erfassung der Ziele einfacher sei, wenn diese sich bei ihren Familien aufhielten.

Eine Quelle berichtet, sie wende etwa 20 Sekunden auf, um die Einstufung der KI zu verifizieren. In der Zeit überprüfe sie lediglich, ob das Ziel männlich ist.

„Lavender“ handelt fast gänzlich autonom. Eine Quelle berichtet, sie wende für einen Menschen, den die KI als verdächtig einstuft, etwa 20 Sekunden auf, um die Einstufung zu verifizieren. In der Zeit überprüfe sie lediglich, ob das Ziel männlich ist.

Weitere, durchaus schockierende Erkenntnisse erinnern an andere Konflikte, etwa an den „War on Terror“ der Amerikaner in Afghanistan und anderswo. 2012 wurde bekannt, dass Washington jede „männliche Person im wehrfähigen Alter“ („military-aged male“) im Umfeld eines Drohnenangriffs per se als „feindlichen Kombattanten“ betrachtet, solange Gegenteiliges nicht bewiesen wird. Auch „Lavender“ macht nicht vor minderjährigen Palästinensern halt.

Tatsächlich ist der Massenmord mittels KI eine direkte Folge des „Tods per Knopfdruck“, der im Zuge der Antiterrorkriege der letzten zwei Jahrzehnte etabliert wurde. Jegliches Verständnis von Ethik, Moral und Rechtsstaatlichkeit fällt bei dieser Art der Kriegsführung weg.

Hinzu kommt, dass sie keineswegs zu einem Erfolg führt, neue Terroristen züchtet und nicht verlässlich ist. Auch dies macht der desaströse Ausgang des Krieges in Afghanistan deutlich: Viele der Taliban-Führer, die in den letzten Jahren nach Drohnenoperationen vermeintlich getötet wurden, regieren heute in Kabul und sind stärker denn je zuvor.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.