t-online - Nachrichten für Deutschland
t-online - Nachrichten für Deutschland
Such IconE-Mail IconMenü Icon



HomePolitikAuslandKrisen & Konflikte

Israel benutzt Künstliche Intelligenz, um Ziele in Gaza auszuwählen


"Grün, gelb, rot – wie eine Ampel"
Die "Zielfabrik" der israelischen Armee

Von t-online, wan

Aktualisiert am 02.12.2023Lesedauer: 4 Min.
imago images 0309145958Vergrößern des BildesRauch steigt von einem Gebäude in Gaza auf (Archivbild): KI-Maschinen sollen massenweise Ziele für die israelische Armee auswählen. (Quelle: IMAGO/Ismael Mohamad/imago-images-bilder)
Auf Facebook teilenAuf x.com teilenAuf Pinterest teilen
Auf WhatsApp teilen

Ziele im Gazastreifen werden zunehmend von Künstlicher Intelligenz ausgewählt. Israel hat damit offenbar die Zahl der Angriffe vervielfacht.

Seit dem Ende der Waffenruhe hat Israel wieder mutmaßliche Hamas-Häuser und Tunnel im Gazastreifen angegriffen. Was bislang kaum bekannt war: Wie Israel seine Ziele auswählt. Zum einen hören die Militärs und Geheimdienste natürlich den Funkverkehr der Terroristen ab, zum anderen gibt es Spione, die verdächtige Bewegungen melden. Viel wichtiger ist aber offenbar ein anderes Werkzeug: "Gospel".

Dabei handelt es sich um ein System mit den hebräischen Namen "Habsora", auf Englisch eben Gospel, das mögliche Ziele vorschlägt. Es wird von Künstlicher Intelligenz gesteuert, und das mit atemberaubender Geschwindigkeit, wie der britische "Guardian" jetzt in einer aufwändigen Recherche zusammen mit dem Magazin "+972" und der Zeitung "Local Call" herausgefunden hat. Im November sollen 12.000 mögliche Ziele identifiziert worden sein, hatte die israelische Militärführung mitgeteilt. Die Zahl der Identifikationen, so der Bericht, habe sich von 50 auf 100 pro Tag verdoppelt.

Israels Armee (IDF) hat nach eigener Darstellung seit dem Ende der Feuerpause am Freitag bereits wieder 200 Ziele im Gazastreifen angegriffen. Die Angriffe der Boden-, Luft- und Seestreitkräfte seien im Norden sowie im Süden des abgeriegelten Küstengebiets erfolgt, teilte das Militär am Freitag mit. Demnach wurden auch Ziele in den Städten Chan Junis sowie Rafah im Süden attackiert.

Dabei dürfte "Gospel" auch geholfen haben. Die IDF erklärte dem "Guardian" zufolge, dass das System "durch die schnelle und automatische Extraktion von Informationen" Empfehlungen erstellt, "mit dem Ziel einer vollständigen Übereinstimmung zwischen der Empfehlung der Maschine und der von einer Person durchgeführten Identifizierung".

Die KI-Maschinen sollen in den vergangenen Jahren eine Datenbank von 30.000 bis 40.000 Personen aufgebaut haben, die als mögliche Gegner Israels gelten.

Datenmengen werden in Angriffsziele umgewandelt

Aviv Kochavi, der bis Januar Chef der israelischen IDF war, hatte schon vor dem Angriff der Hamas die KI-Systeme gelobt. Es handele sich um "eine Maschine, die effizienter als jeder Mensch riesige Datenmengen produziert und sie in Angriffsziele umwandelt". Als sie aktiviert wurde, konnte sie bereits vor zwei Jahren bis zu 1.000 Ziele am Tag ausspucken. Die Hälfte davon sei auch angriffen worden.

"Die IDF im Jahr 2023 unterscheidet sich nicht nur von der IDF im Jahr '82 oder '73, sondern auch von der vor einem Jahrzehnt. Jede Brigade verfügt heute über einen ausgeklügelten Geheimdienstapparat, der an den Film The Matrix erinnert und Informationen in Echtzeit liefert", sagte er. Von allen technologischen Revolutionen werde "die künstliche Intelligenz wahrscheinlich die radikalste sein, im Guten wie im Schlechten", so Kochavi.

Ziel: Zivile Opfer reduzieren

Woher die Maschinen ihre Informationen erhalten, ist Geheimsache. Laut "The Guardian" gehen Experten davon aus, dass Drohnenaufnahmen, abgehörte Gespräche und elektronische Kommunikation sowie andere Datenquellen die Grundlage bilden. Daraus werden dann Muster gebildet, wie und wo sich Verdächtige aufhalten können.

 
 
 
 
 
 
 

Die KI-Ziele sollen dabei mit großer Sorgfalt ausgewählt werden, berichten israelische Medien. Die Zeitung "Yedioth Ahronoth" schrieb, dass dadurch zivile Opfer vermieden werden könnten. Eine hochrangige israelische Militärquelle sagte dem "Guardian", dass das Militär eine "sehr genaue" Messung der Zahl der Zivilisten verwenden, die ein Gebäude kurz vor einem Angriff verlassen. "Wir verwenden einen Algorithmus, um festzustellen, wie viele Zivilisten noch übrig sind. Er zeigt uns grün, gelb, rot an, wie eine Ampel."

Kritik an Automatisierung

Die hohe Zahl der zivilen Opfer, die aus Gaza gemeldet werden, lässt dabei aber Zweifel aufkommen. Selbst, wenn man berücksichtigt, dass es die von der Hamas kontrollierte Gesundheitsbehörde ist, von der die Zahlen stammen, sind sie doch sehr hoch. Es soll sich um Zehntausende zivile Opfer handeln. Das hatte selbst Premierminister Benjamin Netanjahu eingestanden.

"Schauen Sie sich die physische Landschaft des Gazastreifens an", sagte Richard Moyes, ein Forscher, der Artikel 36 leitet, eine Gruppe, die sich für die Verringerung von Schäden durch Waffen einsetzt, gegenüber dem "Guardian".

"Wir sehen die großflächige Zerstörung eines Stadtgebiets mit schweren Sprengstoffwaffen. Die Behauptung, es werde Präzision und Enge der Gewalt ausgeübt, wird durch die Fakten nicht bestätigt."

Nach Angaben der IDF seien in den ersten 35 Tagen des Kriegs 15.000 Ziele definiert worden, entsprechend folgten Angriffe. Nach Informationen von "Guardian" und den israelischen Journalisten von "+972" und "Local Call", wüssten die Militärs, sobald ein Ziel ausgewählt sei, wie viele zivile Opfer es geben werde.

Quellen, die die KI-basierte Systeme kennen, sagten, dass solche Werkzeuge den Prozess der Zielerstellung erheblich beschleunigt hätten.

"Wir bereiten die Ziele automatisch vor und arbeiten nach einer Checkliste", sagte eine Quelle, die früher in der Zielabteilung arbeitete, gegenüber "+972" und "Local Call". "Es ist wirklich wie in einer Fabrik. Wir arbeiten schnell, und es bleibt keine Zeit, sich eingehend mit dem Ziel zu befassen. Wir werden danach beurteilt, wie viele Ziele wir erreichen können".

Richard Moyes warnt deshalb vor dem Einsatz von KI-System. "Es besteht die Gefahr", sagte er, "dass Menschen, die sich auf diese Systeme verlassen, zu Rädchen in einem mechanisierten Prozess werden und die Fähigkeit verlieren, das Risiko eines zivilen Schadens in einer sinnvollen Weise zu berücksichtigen."

Verwendete Quellen
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

ShoppingAnzeigen

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...



TelekomCo2 Neutrale Website