Rainer Rehak präsentierte auf dem 39. Chaos Communication Congress (39c3) einen einführenden Talk zum Thema “Programmierte Kriegsverbrechen?” über den Einsatz von KI-Systemen im Kriegseinsatz in Gaza und warum IT-Fachleute sich dazu äußern müssen.
Einführung
Die Beziehung zwischen Mensch und Maschine ist seit Jahrzehnten ein Thema in der Friedensbewegung, Konfliktforschung, Philosophie, Sozialwissenschaften und kritischen Data & Algorithm Studies. In den letzten Jahren wurden Waffensysteme mit KI-Komponenten entwickelt und auch praktisch in bewaffneten Konflikten eingesetzt.
Dieser Talk konzentrierte sich auf das Beispiel von KI-gestützten Zielwahlsystemen, die vom israelischen Militär seit Mai 2021 und insbesondere jetzt im Genozid in Gaza eingesetzt werden. Die Systeme, die analysiert wurden, sind Gospel zur militärischen Bewertung von Gebäuden, Lavender zur militärischen Bewertung von Personen, Where’s Daddy zur Zeitplanung von Angriffen und ein experimentelles System auf Basis großer Sprachmodelle zur Erkennung militärisch relevanter Nachrichten in palästinensischen Kommunikationsdaten.
Das Lavender-System
Das Lavender-System ist ein KI-gestütztes Zielsystem des israelischen Militärs, das Individuen in Gaza eine “Militant Score” zuweist. Diese Bewertung bestimmt den Zielstatus einer Person basierend auf dynamischen Schwellenwerten.
Die Ergebnisse von Lavender beeinflussen die Ausführung von Angriffen, einschließlich Luftangriffen und Drohnenkriegführung. Interviewten Whistleblowern zufolge hat das System eine hohe Rate an falschen positiven Ergebnissen. Ziele werden oft aufgrund dünner Beweise oder falscher Annahmen über die Beziehungen von Individuen zu militanten Gruppen ausgewählt.
Das Zielsystem berücksichtigt auch die erwartete Anzahl ziviler Opfer. Senior-ziele (gemeint ist der Gefährdungsgrad; nicht das Alter) haben höhere akzeptable Opferraten als Juniorziele. Das System ist so konzipiert, dass es Effizienz maximiert statt Genauigkeit, indem es schnell mehr Ziele generiert, anstatt Fehler zu minimieren.
Verantwortung und Ethik
Rainer argumentierte, dass die Verantwortung für das Lavender-System vorallem bei den Militärbedienern und Kommandanten liegt, die das System konfigurieren und einsetzen, nicht bei der KI selbst. Er kritisierte auch den Mangel an Transparenz und Rechenschaftspflicht in der Entwicklung und dem Einsatz solcher Systeme.
Es wurden mehrere offene Fragen und Bedenken diskutiert:
- Die Rolle von “Menschen in the Loop” bei der Zielauswahl des Lavender-Systems.
- Die ethischen Implikationen des Einsatzes von KI-Systemen zur Ermöglichung großer ziviler Opfer.
- Das Potenzial für die Verletzung internationalen Rechts und Menschenrechte beim Einsatz von KI-basierten Waffensystemen.
- Die Verantwortung der Tech-Unternehmen, die an der Entwicklung und dem Einsatz dieser Systeme beteiligt sind.
Verantwortung von IT-Fachleuten
Rainer schloss seinen Vortrag mit der Betonung der Bedeutung von technischer Kompetenz und kritischer Evaluation von KI-Systemen, insbesondere im Kontext des Krieges. Er ermutigte das Publikum, sich mit diesen Themen auseinanderzusetzen und in öffentlichen Diskussionen dazu beizutragen.
Fazit
Der Talk “Programmierte Kriegsverbrechen?” bot eine detaillierte Analyse der aktuellen technischen Entwicklungen von KI-gestützten Zielwahlsystemen im Kriegseinsatz in Gaza. Rainer zeigte auf, was an dieser Form der Kriegsautomatisierung falsch läuft und betonte die Verantwortung von IT-Fachleuten, sich mit diesen Themen auseinanderzusetzen.