LINK: ESTABLISHED
BOOTING PERSONAL TERMINAL...    LOADING USER PROFILE...    APPLYING CRT FILTERS...    PRESS [NAV] TO SWITCH SECTIONS    //    ALL DATA REMAINS LOCAL.  
MODE: DESKTOP

field reports article


Programmierte Kriegsverbrechen? Eine Analyse von KI-Systemen im Kriegseinsatz in Gaza

Rainer Rehak präsentierte auf dem 39. Chaos Communication Congress (39c3) einen einführenden Talk zum Thema “Programmierte Kriegsverbrechen?” über den Einsatz von KI-Systemen im Kriegseinsatz in Gaza und warum IT-Fachleute sich dazu äußern müssen.

Einführung

Die Beziehung zwischen Mensch und Maschine ist seit Jahrzehnten ein Thema in der Friedensbewegung, Konfliktforschung, Philosophie, Sozialwissenschaften und kritischen Data & Algorithm Studies. In den letzten Jahren wurden Waffensysteme mit KI-Komponenten entwickelt und auch praktisch in bewaffneten Konflikten eingesetzt.

Dieser Talk konzentrierte sich auf das Beispiel von KI-gestützten Zielwahlsystemen, die vom israelischen Militär seit Mai 2021 und insbesondere jetzt im Genozid in Gaza eingesetzt werden. Die Systeme, die analysiert wurden, sind Gospel zur militärischen Bewertung von Gebäuden, Lavender zur militärischen Bewertung von Personen, Where’s Daddy zur Zeitplanung von Angriffen und ein experimentelles System auf Basis großer Sprachmodelle zur Erkennung militärisch relevanter Nachrichten in palästinensischen Kommunikationsdaten.

Das Lavender-System

Das Lavender-System ist ein KI-gestütztes Zielsystem des israelischen Militärs, das Individuen in Gaza eine “Militant Score” zuweist. Diese Bewertung bestimmt den Zielstatus einer Person basierend auf dynamischen Schwellenwerten.

Die Ergebnisse von Lavender beeinflussen die Ausführung von Angriffen, einschließlich Luftangriffen und Drohnenkriegführung. Interviewten Whistleblowern zufolge hat das System eine hohe Rate an falschen positiven Ergebnissen. Ziele werden oft aufgrund dünner Beweise oder falscher Annahmen über die Beziehungen von Individuen zu militanten Gruppen ausgewählt.

Das Zielsystem berücksichtigt auch die erwartete Anzahl ziviler Opfer. Senior-ziele (gemeint ist der Gefährdungsgrad; nicht das Alter) haben höhere akzeptable Opferraten als Juniorziele. Das System ist so konzipiert, dass es Effizienz maximiert statt Genauigkeit, indem es schnell mehr Ziele generiert, anstatt Fehler zu minimieren.

Verantwortung und Ethik

Rainer argumentierte, dass die Verantwortung für das Lavender-System vorallem bei den Militärbedienern und Kommandanten liegt, die das System konfigurieren und einsetzen, nicht bei der KI selbst. Er kritisierte auch den Mangel an Transparenz und Rechenschaftspflicht in der Entwicklung und dem Einsatz solcher Systeme.

Es wurden mehrere offene Fragen und Bedenken diskutiert:

  • Die Rolle von “Menschen in the Loop” bei der Zielauswahl des Lavender-Systems.
  • Die ethischen Implikationen des Einsatzes von KI-Systemen zur Ermöglichung großer ziviler Opfer.
  • Das Potenzial für die Verletzung internationalen Rechts und Menschenrechte beim Einsatz von KI-basierten Waffensystemen.
  • Die Verantwortung der Tech-Unternehmen, die an der Entwicklung und dem Einsatz dieser Systeme beteiligt sind.

Verantwortung von IT-Fachleuten

Rainer schloss seinen Vortrag mit der Betonung der Bedeutung von technischer Kompetenz und kritischer Evaluation von KI-Systemen, insbesondere im Kontext des Krieges. Er ermutigte das Publikum, sich mit diesen Themen auseinanderzusetzen und in öffentlichen Diskussionen dazu beizutragen.

Fazit

Der Talk “Programmierte Kriegsverbrechen?” bot eine detaillierte Analyse der aktuellen technischen Entwicklungen von KI-gestützten Zielwahlsystemen im Kriegseinsatz in Gaza. Rainer zeigte auf, was an dieser Form der Kriegsautomatisierung falsch läuft und betonte die Verantwortung von IT-Fachleuten, sich mit diesen Themen auseinanderzusetzen.

EMBED // MEDIA.CCC.DE

Watch the Stream right here

DURATION60 min
VIEWS3.9k+
SPEAKERRainer Rehak
RELEASE2025-12-29
TAGS
ethics-society-politics202539c3
End of record. Further disclosure requires clearance.