die dunkelkammer history
KI im Krieg: Das Töten wird leichter

Künstliche Intelligenz im Krieg: Das Töten wird dadurch leichter und das Gewissen abgestumpft.

Auf den Schlachtfeldern von heute – Gaza, Ukraine – markieren Algorithmen den Feind und Drohnen töten, ohne dass ein Soldat eingreifen müsste. Wie wirkt das auf die Moral?

Guten Tag, ich begrüße Sie zu einer neuen Dunkelkammer aus der Reihe history. Heute geht es um Künstliche Intelligenz, um KI-gestützte Drohnen und von der KI empfohlene, durch Algorithmen ermittelte, menschliche Ziele und deren Behausungen.

Es geht also um Krieg

Sechs Monate nach Ausbruch des Ersten Weltkriegs schrieb der Begründer der Psychoanalyse, Sigmund Freud, einen Essay über den Krieg: wie sich die Euphorie der ersten Wochen in eintöniges Elend verwandelt hat, begleitet von der Qual des Wartens auf die Feldpost, der Angst vor der Nachricht, der Vater, der Bruder, der Ehemann sei gefallen.
Und wie ich das sage, fällt mir auf- darüber spricht Freud gar nicht, denn das ist die Sicht von Frauen. Im Krieg sind die beiden Geschlechter noch immer durch eine tiefe Kluft getrennt, selbst in Armeen wie der israelischen sind Frauen in Kampfeinheiten ganz selten.

Der Krieg, so schrieb Freud 1915 „ist mindestens so grausam, erbittert, schonungslos wie irgendein früherer Krieg. Setzt sich über alle Einschränkungen hinweg, die man das Völkerrecht genannt hat, anerkennt nicht die Vorrechte des Verwundeten und des Arztes, die Unterscheidung des friedlichen und kämpfenden Teils der Bevölkerung, die Ansprüche des Privateigentums. Der Krieg wirft nieder, was ihm im Wege steht, in blinder Wut als sollte es keine Zukunft und keinen Frieden unter den Menschen nach ihm geben. Er zerreißt alle Bande der Gemeinschaft unter den miteinander ringenden Völkern und droht, eine Erbitterung zu hinterlassen, welche eine Wiederanknüpfung derselben für lange Zeit unmöglich machen wird.“

Wie aktuell sich das heute anhört. Dabei kannte Freud die wahre Dimension des Blutvergießens im Ersten Weltkrieg noch nicht einmal: die neuen Waffen, den Einsatz von Giftgas, das öffentliche Aufknüpfen von Zivilisten, auch von Frauen und Jugendlichen, die von der Habsburger Armeeführung verdächtigt wurden, für die Russen zu spionieren. Es genügte, wenn ein galizischer Bauer in der Nacht mit einer Petroleumlampe in seinen Stall ging- schon ward ihm die Weitergabe militärischer Stellungen durch Lichtzeichen unterstellt und das Todesurteil gefällt.

Nun - das Völkerrecht wurde nach dem Holocaust weiterentwickelt, aber auch die Kriegs-Technologie;
Trotz allem ist Krieg am Ende immer noch ein schmerzender, blutender, verletzter Mensch, der am Feld liegt, im Schützengraben oder unter Trümmern. Weh, Blut und Tränen.

Vor einigen Jahren ist ein verschollen geglaubtes Manuskript des umstrittenen Schriftstellers Louis-Ferdinand Celine aufgetaucht. Es trägt den Titel „Krieg“, und Celine, ein Rassist und Antisemit, und doch ein großer Schriftsteller verarbeitet darin seine Erfahrungen von den Schlachtfeldern in Belgien 1914.

„Ich habe dann wohl noch einen Teil der folgenden Nacht so dagelegen. Das linke Ohr fest an den Boden geklebt mit Blut, den Mund auch. Zwischen beiden gewaltiger Lärm.“
So beginnt Celines Roman und der Satz könnte heute genauso von einer Palästinenserin im Gaza-Streifen, einem Soldaten der israelischen Bodentruppen, einem alten Mann in einem Plattenbau in Kiew, ukrainischen oder russischen Kämpfern im Donbas gedacht werden.

Auch anderes scheint ewig: Bilder vom Krieg, die der Propaganda dienen, das Denunzieren und Verächtlich machen des Gegners, Lüge und Betrug, Zensur der Nachrichten, Zensur der Meinungsäußerung; die Abstumpfung des Publikums, und: Gewalt gegen Frauen. Ich kenne keinen Krieg ohne massenhafte Vergewaltigung von Frauen.

Und doch ist etwas Neues im Anzug: Die durch künstliche Intelligenz unterstützte Kriegsführung, die es erlaubt, dass Maschinen entscheiden, wer, wann getötet wird; vorher freilich programmiert von Menschen. Dazu kommt die KI-unterstützte Markierung des Feindes.

Der ukrainische Schriftsteller Artem Tschech hat 2017, lang vor dem großen Angriff Russlands auf die Ukraine, seine Kriegserfahrungen im Donbas unter dem Titel „Nullpunkt“ literarisch verarbeitet. „Nullpunkt“ - das ist die Frontlinie, die durch die Ostukraine verläuft.

Die Geschichte: Ein junger Mann aus der Stadt, Generation Facebook und Netflix , verwandelt sich in einen Soldaten an der Front, der sich an Schmutz und Kot gewöhnt, der verweste Mäusekadaver unter seinem Kopfkissen entfernt, sich hin und wieder mit Alkohol ruhigstellt, und wie alle Soldaten Angst hat, im Unterstand getötet zu werden. Es ist die größte Angst.

Eine Passage aus Tschechs Roman: „Hör hin, lausche, starre in die Nacht, schau auf das stille Feld. Oder auf den dunklen, kalten Himmel. Siehst du die Drohne? Sie sieht dich. Und im Fall des Falles wirst du nicht einmal Zeit haben, das Maschinengewehr zu positionieren, wirst es nicht schaffen, deine Maschinenpistole in Anschlag zu bringen. Und dein Herz klopft, klopft, klopft von Nikotin, Koffein und natürlich Adrenalin.“

KI-unterstützte Drohnen sind schon länger im Einsatz. Mittlerweile analysieren sie riesige Datenmengen, können Ziele auf Grund bestimmter Merkmale identifizieren, verfolgen und angreifen, auch ohne menschliches Zutun. Die Technologie in diesem Bereich ist wie immer weiter fortgeschritten als in ziviler Verwendung.

Das deutsche online-Medium Telepolis berichtete vor kurzem, was da möglich ist: Auf ukrainischem Boden, zehn Kilometer von der Front entfernt, landet eine russische Drohne unbemerkt im Unterholz. Sie zieht eine dünne Glasfaserleitung hinter sich her, das ist ihre Nabelschnur zur Bodenstation. Als sich Tage später ein ukrainischer Militärtransporter nähert, der von einer zweiten russischen Aufklärungsdrohne registriert wird, erwacht die lauernde Kampfdrohne im Gebüsch zum Leben - und feuert. Kein Funksignal hat sie verraten, keine Luftabwehr erkannt.

Kampfdrohnen sind in der Lage, in Schwarmordnung zu fliegen wie Vögel, selbstständig einem Hindernis auszuweichen und anzugreifen. In der russischen ‚Lancet‘ befinden sich laut Human Rights Watch Bestandteile aus den Niederlanden, USA, Österreich und Deutschland. Russland verfügt über wesentlich mehr Drohnen als die Ukraine.
Für die Zivilbevölkerung sind autonome Kampfdrohnen eine große Gefahr: Das Todesurteil beruht im Moment der Entscheidung nicht auf einem menschlichen Beschluss, sondern auf einem programmierten Algorithmus, der verdächtige Personen, Fahrzeuge oder auch Gebäude hochgerechnet hat.

Auch im Gaza-Krieg wird künstliche Intelligenz eingesetzt. Vorwiegend zur Markierung von Feinden. Das erklärt zum Teil die unglaublich hohen Todeszahlen unter Zivilisten.

Das KI-System heißt ‚Lavender‘

Laut Bericht der unabhängigen israelischen Plattform +972 analysierte die Software Riesenmengen an Daten, die über rund 2,3 Millionen Einwohner und Einwohnerinnen des Gazastreifens gesammelt worden waren. Mobilfunk-Daten, Telefon-Nummern, Socialmedia-Accounts, Whatsapp-Gruppen, Fotos, Namen, Adressen, Bewegungsmuster. Dann bewertete sie die Wahrscheinlichkeit, dass eine Person im militärischen Flügel der Hamas oder des Palästinensischen islamischen Dschihad aktiv ist. Die KI lernte anhand von Merkmalen bekannter Aktivisten, die der Maschine als Trainingsdaten zugeführt wurden, und wandte diese an der Gesamtbevölkerung an. Eine Person, auf die mehrere belastende Merkmale zutrafen, erhielt eine hohe Bewertung und wurde automatisch zum potenziellen Ziel empfohlen.
Belastende Merkmale waren etwa: häufiger Handy-und Adressenwechsel. So kann ein Jugendlicher, der das Handy des älteren Bruders übernimmt oder ein gebrauchtes Handy kauft, in den Verdachtsraster kommen. Oder Polizisten und Zivilschutzbeamte, die viel Kontakt mit Hamas-Leuten haben; Mitarbeiter von Hilfsorganisationen, Journalisten, Verwandte von Militanten, Einwohner, deren Spitzname zufällig mit denen eines Hamas-Kämpfer übereinstimmten.
Schon in den ersten Kriegswochen sollen 38.000 Palästinenser als Kämpfer markiert worden sein. Ein Verdachtskollektiv, eine hochgerechnete Größe.

In früheren Kriegen - so das online-magazin +972 - musste ein Offizier, um die Ermordung eines menschlichen Ziels zu genehmigen, ein komplexes Verfahren durchlaufen: Beweise überprüfen, dass es sich bei der Person tatsächlich um einen Hamas-Kämpfer handelte, Wohnort und Kontaktdaten ermitteln und in Echtzeit wissen, wann er zu Hause war.

Das war jetzt nicht mehr nötig. Dazu kamen Befehle, beim Betreten bestimmter Gebiete in Gaza auf alles zu schießen, was sich bewegte.
Und so tötete das israelische Militär im Dezember 2023 irrtümlich drei israelische Geiseln in Gaza, die mit nacktem Oberkörper und unbewaffnet waren und eine improvisierte weiße Flagge trugen.

Durch die KI-Identifzierung von Kämpfern ging einiges schief. Das israelische Militär dementiert, dass man sich ohne Reflexion an die Empfehlungen der KI gehalten hätte.

Doch das Online-Magazin zitiert anonyme Geheimdienstmitarbeiter, die sagen: die Armee habe sich eine Zeitlang vollständig auf KI -Empfehlungen verlassen. Weitere Stimmen sagen, man habe bei Angriffen innerhalb von 20 Sekunden entscheiden müssen.
Die israelische Armee griff Zielpersonen auch systematisch in ihren Privathäusern an – meist nachts in Anwesenheit ihrer Familien. Dafür wurde eine KI mit dem zynischen Namen „Where is Daddy?“ eingesetzt, um die Zielpersonen zu orten und Bombenanschläge zu verüben, sobald sie die Häuser ihrer Familien betreten hatten. So wurden ganze Großfamilien getötet. Als Kollateralschaden.

Laut dem Magazin +972 sei auch die zulässige Zahl für Kollateralschäden von der Abteilung für Völkerrecht des Militärs in diesem Gaza-Krieg gelockert worden: Für jeden jungen Hamas-Aktivisten wurde ein Kollateralschaden von 15-20 Zivilisten genehmigt, im Fall eines hochrangigen Kommandeurs die Tötung von über 100 Zivilisten.

All diese Informationen und Details, wenn sie denn je vorgelegt werden können, werden einmal am Strafgerichtshof in Den Haag eine Rolle spielen.

Denn das Völkerrecht legt nicht exakt fest, was eine „akzeptable“ Zahl ziviler Opfer darstellt, sondern prüft jeden Angriff nach dem Grundsatz der „Verhältnismäßigkeit“.
Gegen einen Scharfschützen der israelischen Armee- ein deutsch-israelischer Doppelstaatsbürger wurde jetzt in Deutschland Anzeige erstattet. Er soll unbewaffnete Palästinenser in Gaza getötet haben.

Yotam Vilk, Hauptmann der Reserve der israelischen Armee, hat vor kurzem in einem offenen Brief seinem Herzen Luft gemacht. Ich zitiere aus seinem Brief: „Angetrieben von Wut und Schuldgefühlen zogen wir am 7. Oktober in den Kampf gegen eine skrupellose Terrororganisation, die uns mit brutaler Klarheit das Ausmaß ihrer Grausamkeit vor Augen führte. (…) Doch bald wurde Gaza zu einer gesetzlosen Zone, in der es kaum eine wirksame Kontrolle des Militärs gab und die Soldaten kaum persönlich zur Verantwortung gezogen wurden.“
Vilk, der die ersten Kriegsmonate in Gaza mitgemacht hat, ruft jetzt Reservisten dazu auf, dem Kriegseinsatz zur Besetzung Gazas nicht Folge zu leisten.
Vilk: „Nicht nur Menschenleben stehen auf dem Spiel, sondern die Idee Israels selbst. Wenn wir diesen Weg weiterverfolgen und die Kontrolle über Gaza dauerhaft übernehmen, wird von der fragilen Vision einer liberalen Demokratie, die diesen Staat einst prägte, nichts übrigbleiben.“
Yuval Abraham, ein in Jerusalem lebender Journalist und Filmemacher sagt: „Daten aus einer internen Datenbank des israelischen Geheimdienstes deuten darauf hin, dass 83 Prozent der bei Israels Angriff auf Gaza getöteten Palästinenser Zivilisten waren.“

Ich komme zum Schluss:

In der Geschichte der Menschheit gab es immer Stimmen gegen den Krieg: Künstler, Schriftsteller, politische Aktivisten, die die Grausamkeiten des Krieges sichtbar gemacht und damit eine Wirkung erzielten haben.
Doch wer wird in Zukunft die Verantwortung übernehmen? – Der Programmierer der KI, der Designer, der Auftraggeber, der Soldat, der auf den Knopf drückt?

Und das Gewissen? Wen drückt es? Und noch einmal komme ich auf Freud zu sprechen. „Unser Gewissen“ sagt Freud, ist nicht der unbeugsame Richter, für den die Ethiker es ausgeben. Das Gewissen ist in seinem Ursprung soziale Angst und nichts anderes“.
Und damit verabschiede ich mich von Ihnen, Ihre Christa Zöchling.

Autor:in:

Christa Zöchling

Sie möchten diesem Profil folgen?

Verpassen Sie nicht die neuesten Inhalte von diesem Profil: Melden Sie sich an, um neuen Inhalten von Profilen und Orten in Ihrem persönlichen Feed zu folgen.

Eine/r folgt diesem Profil

Video einbetten

Es können nur einzelne Videos der jeweiligen Plattformen eingebunden werden, nicht jedoch Playlists, Streams oder Übersichtsseiten.

Abbrechen

Karte einbetten

Abbrechen

Social-Media Link einfügen

Es können nur einzelne Beiträge der jeweiligen Plattformen eingebunden werden, nicht jedoch Übersichtsseiten.

Abbrechen

Code einbetten

Funktionalität des eingebetteten Codes ohne Gewähr. Bitte Einbettungen für Video, Social, Link und Maps mit dem vom System vorgesehenen Einbettungsfuntkionen vornehmen.
Abbrechen

Beitrag oder Bildergalerie einbetten

Abbrechen

Schnappschuss einbetten

Abbrechen

Sie möchten selbst beitragen?

Melden Sie sich jetzt kostenlos an, um selbst mit eigenen Inhalten beizutragen.