Israel trainiert KI-System mit Millionen abgehörter Gespräche

Militär entwickelt ChatGPT-ähnliches Überwachungstool gegen Palästinenser

Das Sprachmodell soll das in Gaza und dem Westjordanland abgehörte Material nach bestimmten Schlüsselwörtern durchsuchen und Personen als »Unruhestifter« klassifizieren.
Das Sprachmodell soll das in Gaza und dem Westjordanland abgehörte Material nach bestimmten Schlüsselwörtern durchsuchen und Personen als »Unruhestifter« klassifizieren.

Israels Militär entwickelt offenbar ein auf Künstlicher Intelligenz (KI) basierendes Sprachmodell, das mit Millionen abgehörter Telefongespräche und Nachrichten von Bewohner*innen in den besetzten Gebieten trainiert wird. Laut einer am Donnerstag veröffentlichten Recherche des +972 Magazin hat die israelische Armee die Anwendung speziell für die Verarbeitung arabischer »Dialekte, die uns hassen« konzipiert, wie es ein beteiligter Offizier in einem Vortrag formuliert haben soll.

Das KI-Werkzeug wird laut dem Bericht von der Elite-Cybereinheit 8200 des israelischen Militärgeheimdienstes entwickelt. Es handelt sich um ein sogenanntes Large Language Model (LLM), das ähnlich wie ChatGPT, DeepSeek oder Claude funktioniert – jedoch mit dem Unterschied, dass es nicht mit öffentlich zugänglichen Daten, sondern mit gezielt gesammeltem Überwachungsmaterial trainiert wird. Laut dem +972 Magazin umfasst der Trainingsdatensatz etwa 100 Milliarden arabische Wörter aus abgehörten Alltagsgesprächen von Palästinenser*innen.

Nach den Anschlägen palästinensischer Gruppen vom 7. Oktober 2023 in Israel soll die Einheit 8200 verstärkt KI-Experten aus Tech-Unternehmen wie Google, Meta und Microsoft als Reservisten rekrutiert haben, um das Projekt voranzutreiben. Von diesen Firmen, berichtet das +972 Magazin, wollte nur Google bestätigen, dass Mitarbeiter*innen Reservedienst in Israel leisten. Das Unternehmen betonte jedoch, dass diese Tätigkeiten »nicht mit Google verbunden« seien.

Ein wesentlicher Vorteil des israelischen Systems soll die schnelle Verarbeitung großer Datenmengen sein, um gezielt Informationen über Einzelpersonen von Interesse zu liefern. Bereits jetzt setzt die Armee kleinere Sprachmodelle ein, die Überwachungsmaterial nach bestimmten Schlüsselwörtern durchsuchen und Palästinenser*innen identifizieren, die Wut auf die Besatzung ausdrücken oder als »Unruhestifter« klassifiziert werden sollen. Diese Personen können auf einer Liste ausgegeben werden, um die Verhaftungsrate zu erhöhen – oft reicht dazu ein vager »Verdacht«, um Betroffene ohne Anklage oder Gerichtsverfahren in Administrativhaft zu nehmen.

Das Militär wollte zunächst OpenAI, die Firma hinter ChatGPT, für das Projekt gewinnen. OpenAI soll die Anfrage jedoch abgelehnt haben, das Sprachmodell direkt in die Offline-Systeme des Militärs zu integrieren. Wie das +972 Magazin in einer früheren Recherche aufdeckte, nutzt die israelische Armee für Abfragen dennoch OpenAIs Sprachmodell, das über Microsoft Azure erworben wurde. Dem Bericht zufolge können Offiziere auch dem von Israels Militär selbst entwickelten Sprachmodell wie bei einem Chatbot Fragen stellen – etwa ob zwei Personen sich jemals getroffen haben oder jemand eine bestimmte Handlung ausgeführt hat.

Menschenrechtsexpert*innen warnen, dass das neue KI-System eine schwerwiegende Verletzung der Rechte von Palästinenser*innen darstellt. »Wir sprechen von hochpersönlichen Informationen, die von Menschen entnommen werden, die keines Verbrechens verdächtigt werden, um ein Tool zu trainieren, das später helfen könnte, Verdacht zu begründen«, kommentiert ein Forscher von Human Rights Watch.

nd.DieWoche – unser wöchentlicher Newsletter

Mit unserem wöchentlichen Newsletter nd.DieWoche schauen Sie auf die wichtigsten Themen der Woche und lesen die Highlights unserer Samstagsausgabe bereits am Freitag. Hier das kostenlose Abo holen.

Die israelische Armee beantwortete keine spezifischen Fragen zu dem Projekt und verwies auf die »sensible Natur der Informationen«. Sie versicherte lediglich, »dass jegliche Nutzung technologischer Werkzeuge durch einen strengen Prozess unter der Leitung von Fachleuten erfolgt, um maximale Genauigkeit der Geheimdienstinformationen zu gewährleisten«.

Die neuen Enthüllungen stammen von dem Journalisten und Filmemacher Yuval Abraham, der für das israelisch-palästinensische +972 Magazin bereits mehrere bahnbrechende Recherchen zu bis dahin unbekannten KI-Werkzeugen von Israels Militär durchgeführt hat. Yuval deckte etwa auf, dass Einheiten ihre Zielpersonen für Bombardements oder Drohnenangriffe per Software priorisieren lassen. Auch ihre Familien werden dabei getötet, indem eine Überwachungssoftware für Mobiltelefone den Soldat*innen Bescheid gibt, wann diese Personen in ihrem Zuhause eintreffen und dort beschossen werden können.

Zusammen mit dem Palästinenser Basel Adra hatte Yuval Abraham vor einem Jahr den Dokumentarfilm »No Other Land« auf der Berlinale 2024 präsentiert und darin mutwillige Zerstörungen durch die israelische Armee im Westjordanland thematisiert. Der Film gewann den Preis für den besten Dokumentarfilm, woraufhin Abraham in seiner Dankesrede Israel »Apartheid« unterstellte und einen Waffenstillstand im Gazastreifen forderte. Abraham wurde daraufhin von deutschen Politiker*innen und Medien über Monate des Antisemitismus beschuldigt. Am Sonntag gewann »No Other Land« auch den Oscar für den besten Dokumentarfilm.

- Anzeige -

Das »nd« bleibt. Dank Ihnen.

Die nd.Genossenschaft gehört unseren Leser*innen und Autor*innen. Mit der Genossenschaft garantieren wir die Unabhängigkeit unserer Redaktion und versuchen, allen unsere Texte zugänglich zu machen – auch wenn sie kein Geld haben, unsere Arbeit mitzufinanzieren.

Wir haben aus Überzeugung keine harte Paywall auf der Website. Das heißt aber auch, dass wir alle, die einen Beitrag leisten können, immer wieder darum bitten müssen, unseren Journalismus von links mitzufinanzieren. Das kostet Nerven, und zwar nicht nur unseren Leser*innen, auch unseren Autor*innen wird das ab und zu zu viel.

Dennoch: Nur zusammen können wir linke Standpunkte verteidigen!

Mit Ihrer Unterstützung können wir weiterhin:


→ Unabhängige und kritische Berichterstattung bieten.
→ Themen abdecken, die anderswo übersehen werden.
→ Eine Plattform für vielfältige und marginalisierte Stimmen schaffen.
→ Gegen Falschinformationen und Hassrede anschreiben.
→ Gesellschaftliche Debatten von links begleiten und vertiefen.

Seien Sie ein Teil der solidarischen Finanzierung und unterstützen Sie das »nd« mit einem Beitrag Ihrer Wahl. Gemeinsam können wir eine Medienlandschaft schaffen, die unabhängig, kritisch und zugänglich für alle ist.