12.03.2025: Die israelische Armee entwickelt ein neues, ChatGPT-ähnliches KI-Tool und trainiert es mit Millionen von arabischen Gesprächen, die durch die Überwachung von Palästinensern in den besetzten Gebieten gewonnen wurden. Es erstellt eine lange (und vage) Liste von "verdächtigen" Palästinensern, die verhaftet werden sollen. Dies deckt eine Untersuchung von +972 Magazine, Local Call und dem Guardian auf.
Im November 2023 und April 2024 hat das israelisch-palästinensische Magazin +972 aufgedeckt, wie die israelische Armee mit einem auf künstlicher Intelligenz basierendem Programm ihre Angriffe auf Ziele in Gaza steuert. Mit diesem System der "industrialisierten Ausrottung" werden Zehntausende von Bewohnern des Gazastreifens als Verdächtige für die Ermordung markiert und viele zivile Opfer in Kauf nimmt.
![]() |
kommunisten.de, 4. April 2024'Lavender': KI-gesteuerter Vernichtungskrieg in Gaza. Eine Maschine, die 100 zivile Todesopfer für jeden Hamas-Offiziellen erlaubt |
Jetzt hat Yuval Abraham, Ko-Regisseur des Film "No other land", bei +972 eine Untersuchung veröffentlicht, die aufzeigt wie die israelische Armee ein neues Instrument der künstlichen Intelligenz nach dem Vorbild von ChatGpt entwickelt. Das neue Modell wird mit umfangreichem Geheimdienstmaterial gefüttert, das bei der Überwachung des täglichen Lebens der unter Besatzung lebenden Palästinenser gesammelt wurde.
Ein israelischer Soldat fotografiert einen palästinensischen Mann mit einem KI-Gesichtserkennungstool während einer Razzia in Wadi Qutyna, Al-Mughayer, im besetzten Westjordanland, 17. Januar 2025. (Avishay Mohar/Activestills)
Der Hauptvorteil für das Militär wird darin bestehen, dass das Instrument in der Lage ist, große Mengen an Überwachungsmaterial schnell zu verarbeiten, um "Fragen" zu bestimmten Personen zu beantworten. Eine Quelle im israelischen Geheimdienst gab an: "Das System ermöglicht Operationen, die Daten von viel mehr Menschen nutzen, und macht so die Kontrolle der Bevölkerung möglich. Dies betrifft nicht nur die Verhinderung von Schusswaffenangriffen. Ich kann Menschenrechtsaktivisten aufspüren. Ich kann palästinensische Bauten in der Zone C (Westjordanland) aufspüren. Ich habe mehr Instrumente, um zu wissen, was jeder Palästinenser im Westjordanland tut. Wenn man all diese Daten hat, kann man sie für jeden beliebigen Zweck verwenden."
kommunisten.de veröffentlicht einen Auszug aus der Untersuchung des israelisch-palästinensischen Magazins +972
Israel entwickelt ChatGPT-ähnliches Tool, das die Überwachung von Palästinensern als Waffe nutzt
Von Yuval Abraham, 6. März 2025
Das KI-Tool, das unter der Schirmherrschaft von Unit 8200, einer Eliteeinheit für Cyberkriegsführung innerhalb des israelischen Militärgeheimdienstes, entwickelt wird, ist ein sogenanntes Large Language Model (LLM): ein maschinelles Lernprogramm, das in der Lage ist, Informationen zu analysieren und Text zu generieren, zu übersetzen, vorherzusagen und zusammenzufassen. Während öffentlich zugängliche LLMs, wie die Engine hinter ChatGPT, mit Informationen aus dem Internet trainiert werden, wird das neue Modell, das von der israelischen Armee entwickelt wird, mit riesigen Mengen an Informationen gefüttert, die mit der Überwachung des Alltagslebens der unter Besatzung lebenden Palästinenser gesammelt wurden.
Die Existenz des LLM der Einheit 8200 wurde gegenüber +972, Local Call, und dem Guardian von drei israelischen Sicherheitsquellen bestätigt, die über die Entwicklung des Modells informiert sind. Das Modell wurde in der zweiten Hälfte des vergangenen Jahres noch trainiert, und es ist unklar, ob es bereits eingesetzt wird oder wie genau die Armee es einsetzen wird. Quellen erklärten jedoch, dass ein entscheidender Vorteil für die Armee darin bestehen wird, dass das Tool in der Lage ist, große Mengen an Überwachungsmaterial schnell zu verarbeiten, um "Fragen" zu bestimmten Personen zu beantworten. Wenn man bedenkt, wie die Armee bereits kleinere Sprachmodelle einsetzt, ist es wahrscheinlich, dass das LLM die Beschuldigung und Verhaftung von Palästinensern durch Israel weiter ausweiten könnte.
"KI verstärkt die Macht. Ich habe mehr Möglichkeiten, um zu wissen, was jede Person im Westjordanland tut. Wenn man so viele Daten hat, kann man sie für jeden beliebigen Zweck einsetzen."
"KI verstärkt die Macht", erklärte eine Geheimdienstquelle, die die Entwicklung von Sprachmodellen durch die israelische Armee in den letzten Jahren genau verfolgt hat. "Sie ermöglicht Operationen, die die Daten von weitaus mehr Menschen nutzen und so eine Bevölkerungskontrolle ermöglichen. Dabei geht es nicht nur darum, Schussangriffe zu verhindern. Ich kann Menschenrechtsaktivisten aufspüren. Ich kann den palästinensischen Bau in der Zone C [des Westjordanlandes] überwachen. Ich habe mehr Möglichkeiten, um zu wissen, was jede Person im Westjordanland tut. Wenn man so viele Daten hat, kann man sie für jeden beliebigen Zweck einsetzen."
Die Entwicklung des Tools begann zwar vor dem aktuellen Krieg, aber unsere Untersuchung ergab, dass die Einheit 8200 nach dem 7. Oktober israelische Staatsbürger mit Fachkenntnissen in der Entwicklung von Sprachmodellen um Hilfe bat, die bei Technologiegiganten wie Google, Meta und Microsoft arbeiteten. Mit der Massenmobilisierung von Reservisten zu Beginn des israelischen Angriffs auf Gaza begannen Branchenexperten aus dem Privatsektor, sich der Einheit anzuschließen – und brachten Wissen ein, das zuvor "nur einer sehr exklusiven Gruppe von Unternehmen weltweit zugänglich war", wie eine Sicherheitsquelle angab. (Als Antwort auf unsere Anfragen gab Google an, dass es "Mitarbeiter hat, die in verschiedenen Ländern Reservedienst leisten", und betonte, dass die Arbeit, die sie in diesem Zusammenhang leisten, "nicht mit Google in Verbindung steht". Meta und Microsoft lehnten eine Stellungnahme ab.)
Eine Sicherheitskamera mit Blick auf die Stadt Hebron im Westjordanland, 15. Januar 2013. (Nati Shohat/Flash90)
Laut einer Quelle wurde der Chatbot der Einheit 8200 mit 100 Milliarden Wörtern Arabisch trainiert, die zum Teil durch die groß angelegte Überwachung von Palästinensern durch das israelische Militär gewonnen wurden – was Experten zufolge eine schwerwiegende Verletzung der palästinensischen Rechte darstellt. "Wir sprechen hier von hochpersönlichen Informationen, die von Menschen stammen, die keiner Straftat verdächtigt werden, um ein Tool zu trainieren, das später dazu beitragen könnte, einen Verdacht zu begründen", sagte Zach Campbell, leitender Technologieforscher bei Human Rights Watch, gegenüber +972, Local Call und dem Guardian.
"KI zu einer Waffe machen. Alles mit dem Ziel, ein Apartheid- und Besatzungsregime aufrechtzuerhalten."
Nadim Nashif, Direktor und Gründer der palästinensischen Gruppe für digitale Rechte und Interessenvertretung 7amleh, schloss sich diesen Bedenken an. "Palästinenser sind zu Versuchsobjekten in Israels Labor geworden, um diese Techniken zu entwickeln und KI zu einer Waffe zu machen. Alles mit dem Ziel, ein Apartheid- und Besatzungsregime aufrechtzuerhalten, in dem diese Technologien eingesetzt werden, um ein Volk zu beherrschen und sein Leben zu kontrollieren. Dies ist eine schwerwiegende und anhaltende Verletzung der digitalen Rechte der Palästinenser, die Menschenrechte sind."
"Wir werden alle Geheimdienstmitarbeiter durch KI-Agenten ersetzen"
Die Bemühungen der israelischen Armee, ein eigenes LLM zu entwickeln, wurden erstmals öffentlich von Chaked Roger Joseph Sayedoff, einem Geheimdienstmitarbeiter, der sich als Projektleiter vorstellte, in einem kaum beachteten Vortrag im vergangenen Jahr bestätigt. "Wir haben versucht, den größtmöglichen Datensatz zu erstellen, indem wir alle Daten gesammelt haben, die der Staat Israel jemals auf Arabisch hatte", erklärte er während seines Vortrags auf der DefenseML-Konferenz in Tel Aviv. Er fügte hinzu, dass das Programm mit "unvorstellbar großen Mengen" an nachrichtendienstlichen Informationen trainiert wird.
Laut Sayedoff hat die israelische Armee, als ChatGPTs LLM im November 2022 erstmals der Öffentlichkeit zugänglich gemacht wurde, ein spezielles Nachrichtendienstteam eingerichtet, um zu untersuchen, wie generative KI für militärische Zwecke angepasst werden könnte. "Wir sagten: 'Wow, jetzt werden wir alle Geheimdienstmitarbeiter durch [KI-]Agenten ersetzen. Alle fünf Minuten werden sie den gesamten israelischen Geheimdienstinformationen lesen und vorhersagen, wer der nächste Terrorist sein wird‘", sagte Sayedoff.
Doch das Team konnte zunächst keine großen Fortschritte erzielen. OpenAI, das Unternehmen hinter ChatGPT, lehnte den Antrag von Unit 8200 auf direkten Zugriff auf seinen LLM ab und verweigerte die Integration in das interne Offline-System der Einheit. (Die israelische Armee hat inzwischen das Sprachmodell von OpenAI genutzt, das über Microsoft Azure erworben wurde, wie +972 und Local Call in einer anderen aktuellen Untersuchung aufdeckten[1]. OpenAI lehnte eine Stellungnahme zu diesem Bericht ab.)
Und es gab noch ein weiteres Problem, erklärte Sayedoff: Bestehende Sprachmodelle konnten nur Standardarabisch verarbeiten – das in der formellen Kommunikation, Literatur und den Medien verwendet wird – nicht aber gesprochene Dialekte. Die israelische Militärgeheimdienstbehörde erkannte, dass sie ein eigenes Programm entwickeln musste, das, wie Sayedoff in seinem Vortrag sagte, "auf den Dialekten basiert, die uns hassen".
Schatten von Überwachungskameras der Polizei in der Nähe des Jaffa-Tors in der Jerusalemer Altstadt, 30. Januar 2017. (Sebi Berens/Flash90)
"Informationen schnell verarbeiten und Listen von "Verdächtigen" für Verhaftungen erstellen"
Der Wendepunkt kam mit dem Beginn des Gaza-Krieges im Oktober 2023, als die Einheit 8200 begann, Experten für Sprachmodelle aus privaten Technologieunternehmen als Reservisten zu rekrutieren. Ori Goshen, Co-CEO und Mitbegründer des israelischen Unternehmens AI21 Labs, das auf Sprachmodelle spezialisiert ist, bestätigte, dass Mitarbeiter seines Unternehmens während ihres Reservedienstes an dem Projekt beteiligt waren. "Eine Sicherheitsbehörde kann nicht mit einem Dienst wie ChatGPT arbeiten, also muss sie herausfinden, wie sie KI innerhalb eines [internen] Systems betreiben kann, das nicht mit anderen Netzwerken verbunden ist", erklärte er.
Laut Goshen könnten die Vorteile, die LLMs für Geheimdienste bieten, darin bestehen, dass sie Informationen schnell verarbeiten und Listen von "Verdächtigen" für Verhaftungen erstellen können. Für ihn liegt der Schlüssel jedoch in ihrer Fähigkeit, Daten abzurufen, die über mehrere Quellen verstreut sind. Anstatt "primitive Suchwerkzeuge" zu verwenden, könnten Beamte einfach "Fragen stellen und Antworten erhalten" von einem Chatbot – der beispielsweise in der Lage wäre, zu sagen, ob sich zwei Personen jemals getroffen haben, oder sofort festzustellen, ob eine Person jemals eine bestimmte Handlung begangen hat.
Goshen räumte jedoch ein, dass ein blindes Vertrauen in diese Tools zu Fehlern führen könnte. "Es handelt sich um probabilistische Modelle – man gibt ihnen eine Eingabeaufforderung oder eine Frage und sie erzeugen etwas, das wie Magie aussieht", erklärte er. "Aber oft ergibt die Antwort keinen Sinn. Wir nennen das eine 'Halluzination‘."
Campbell von Human Rights Watch äußerte ähnliche Bedenken. LLM, so sagte er, funktionierten wie "Rätselmaschinen", und ihre Fehler seien systemimmanent. Darüber hinaus seien die Menschen, die diese Tools verwenden, oft nicht diejenigen, die sie entwickelt haben, und Untersuchungen zeigen, dass sie ihnen tendenziell mehr vertrauen. "Letztendlich könnten diese Vermutungen dazu verwendet werden, Menschen zu belasten", sagte er.
Frühere Untersuchungen von +972 und Local Call über den Einsatz von KI-basierten Zielsystemen durch die israelische Armee zur Erleichterung ihrer Bombardierung des Gazastreifens haben die mit solchen Instrumenten verbundenen operativen Mängel aufgezeigt. So hat die Armee beispielsweise ein Programm namens Lavender eingesetzt, um eine "Tötungsliste" von Zehntausenden Palästinensern zu erstellen, die von der KI belastet wurden, weil sie Merkmale aufwiesen, die sie mit der Zugehörigkeit zu einer militanten Gruppe in Verbindung bringen sollte.
Die Armee bombardierte dann viele dieser Personen – in der Regel während sie zu Hause bei ihren Familien waren –, obwohl bekannt war, dass das Programm eine Fehlerquote von 10 Prozent aufwies. Quellen zufolge diente die menschliche Aufsicht über den Tötungsprozess lediglich als "Gummistempel", und die Soldaten behandelten die Ergebnisse von Lavender "so, als wäre es eine menschliche Entscheidung". (siehe kommunisten.de, 4.4.2024: 'Lavender': KI-gesteuerter Vernichtungskrieg in Gaza. Eine Maschine, die 100 zivile Todesopfer für jeden Hamas-Offiziellen erlaubt)
Palästinenser überqueren den Qalandiya-Kontrollpunkt auf ihrem Weg vom Westjordanland zum vierten Freitagsgebet des Ramadan in der Al-Aqsa-Moschee in Jerusalem am 29. April 2022. (Oren Ziv)
"Manchmal ist es nur ein Divisionskommandeur, der 100 Verhaftungen pro Monat will"
Die Entwicklung eines Tools im Stil von ChatGPT, das auf gesprochenes Arabisch trainiert ist, stellt eine weitere Ausweitung des israelischen Überwachungsapparats in den besetzten Gebieten dar, der seit langem sehr aufdringlich ist. Vor mehr als einem Jahrzehnt gaben Soldaten, die in der Einheit 8200 dienten, zu Protokoll, dass sie Zivilisten ohne Verbindung zu militanten Gruppen überwacht hatten, um Informationen zu erhalten, mit denen sie erpresst werden konnten – beispielsweise über finanzielle Notlagen, ihre sexuelle Orientierung oder eine schwere Krankheit, von der sie selbst oder ein Familienmitglied betroffen waren. Die ehemaligen Soldaten gaben auch zu, politische Aktivisten verfolgt zu haben.
![]() |
kommunisten.de, 5.5.2023Israels biometrische Apartheid |
Neben der Entwicklung ihres eigenen LLM verwendet die Einheit 8200 bereits kleinere Sprachmodelle, die die Klassifizierung von Informationen, die Transkription und Übersetzung von Gesprächen vom gesprochenen Arabisch ins Hebräische sowie eine effiziente Stichwortsuche ermöglichen. Diese Tools machen nachrichtendienstliches Material insbesondere für die Armeeabteilung im Westjordanland sofort zugänglicher. Laut zwei Quellen ermöglichen die kleineren Modelle der Armee, Überwachungsmaterial zu sichten und Palästinenser zu identifizieren, die ihre Wut über die Besatzung oder den Wunsch, israelische Soldaten oder Siedler anzugreifen, zum Ausdruck bringen.
Eine Quelle beschrieb ein derzeit verwendetes Sprachmodell, das Daten scannt und Palästinenser anhand von Wörtern identifiziert, die auf "Unruhe stiften" hinweisen. Die Quelle fügte hinzu, dass die Armee Sprachmodelle verwendet hat, um vorherzusagen, wer während Operationen Steine auf Soldaten werfen könnte, um "Präsenz zu zeigen" – wenn Soldaten eine Stadt oder ein Dorf im Westjordanland überfallen und von Tür zu Tür gehen und in jedes Haus auf einer bestimmten Straße stürmen, um Verhaftungen durchzuführen und die Bewohner einzuschüchtern.
Geheimdienstquellen gaben an, dass der Einsatz dieser Sprachmodelle in Kombination mit großflächiger Überwachung in den besetzten Gebieten die Kontrolle Israels über die palästinensische Bevölkerung vertieft und die Häufigkeit von Verhaftungen erheblich erhöht hat. Kommandeure können auf Rohdaten zugreifen, die ins Hebräische übersetzt wurden – ohne sich auf die Sprachzentren der Einheit 8200 verlassen zu müssen, um das Material bereitzustellen, oder selbst Arabisch zu sprechen – und "Verdächtige" für die Verhaftung aus einer ständig wachsenden Liste in jedem palästinensischen Ort auswählen. "Manchmal ist es nur ein Divisionskommandeur, der 100 Verhaftungen pro Monat in seinem Gebiet will", sagte eine Quelle.
Im Gegensatz zu den kleineren Modellen, die bereits im Einsatz sind, wird das derzeit in der Entwicklung befindliche große Modell jedoch mit dem Datensatz der Einheit 8200 von Millionen von Gesprächen zwischen Palästinensern trainiert. "Gesprochenes Arabisch ist eine Datenart, die [kaum] im Internet verfügbar ist", erklärte die Quelle. "Es gibt keine Transkripte von Gesprächen oder WhatsApp-Chats im Internet. Es gibt sie nicht in der Menge, die für das Training eines solchen Modells benötigt wird."
Für das Training des LLM erfüllen alltägliche Gespräche zwischen Palästinensern, die keinen unmittelbaren nachrichtendienstlichen Wert haben, dennoch einen wesentlichen Zweck. "Wenn jemand eine andere Person [am Telefon] anruft und ihr sagt, sie solle nach draußen kommen, weil sie vor der Schule auf sie wartet – das ist nur ein beiläufiges Gespräch, das nicht interessant ist", erklärte eine Sicherheitsquelle. "Aber für ein Modell wie dieses ist es Gold wert, weil es immer mehr Daten für das Training liefert."
(...)
Ein israelischer Militärwachturm und Kameras über der Straße 60 im besetzten Westjordanland, 30. Januar 2006. (Activestills)
Israelische Geheimdienstquellen betonten, dass im Westjordanland nicht unbedingt die Genauigkeit dieser Modelle das dringendste Problem sei, sondern vielmehr das enorme Ausmaß der Verhaftungen, die sie ermöglichen. Die Liste der "Verdächtigen" wird ständig länger, da mithilfe von KI kontinuierlich riesige Mengen an Informationen gesammelt und schnell verarbeitet werden.
Mehrere Quellen gaben an, dass ein vager oder allgemeiner "Verdacht" oft ausreicht, um die Inhaftierung von Palästinensern in Verwaltungshaft zu rechtfertigen – eine verlängerbare Gefängnisstrafe von sechs Monaten ohne Anklage oder Gerichtsverfahren auf der Grundlage nicht offengelegter "Beweise". In einem Umfeld, in dem die Überwachung der Palästinenser so umfassend und die Schwelle für eine Verhaftung so niedrig ist, so die Quellen, werde die Hinzufügung neuer KI-basierter Instrumente die Fähigkeit Israels verbessern, belastende Informationen über viel mehr Menschen zu finden.
Der Sprecher der israelischen Streitkräfte ging auf die spezifischen Fragen von +972, Local Call und dem Guardian "wegen der sensiblen Natur der Informationen" nicht ein und behauptete lediglich, dass "jegliche Nutzung technologischer Hilfsmittel durch einen strengen Prozess unter der Leitung von Fachleuten erfolgt, um die größtmögliche Genauigkeit der nachrichtendienstlichen Informationen zu gewährleisten".
Harry Davies vom Guardian und Sebastian Ben Daniel (John Brown) haben zu dieser Untersuchung beigetragen.
übernommen von +972, 6.3.2025: Israel developing ChatGPT-like tool that weaponizes surveillance of Palestinians
https://www.972mag.com/israeli-intelligence-chatgpt-8200-surveillance-ai/
eigene Übersetzung
Anmerkungen
[1] +972, 23.1.2025: Leaked documents expose deep ties between Israeli army and Microsoft
https://www.972mag.com/microsoft-azure-openai-israeli-army-cloud/