Es ist das Jahr 2050. Die Konflikte im Nahen Osten sind auch nach vielen Jahrzehnten der Verhandlungen noch nicht geklärt. Klimawandel und immer knapper werdene Ressourcen sorgen für Spannungen überall auf der Welt. Immer wieder kommt es zu gewaltvollen Auseinandersetzungen. Doch anders als noch vor 30 Jahren werden diese Kriege nicht mehr von menschlichen Soldat:innen ausgetragen. Zumindest nicht auf der Seite der wohlhabenden Industriestaaten. Stattdessen sind es Drohnen, Roboter und Computer, die für uns Kriege führen, eigenständig und schneller als ein Mensch die vollzogenen Manöver nachvollziehen kann. Dieses hypothetische Szenario könnte schon bald Realität sein. Vielleicht noch nicht in 50 Jahren, vielleicht auch schon viel früher, darüber lässt sich aktuell nur spekulieren. Sicher ist jedoch, dass künstliche Intelligenz das Kriegsgeschehen in den nächsten Jahrzehnten verändern und vor allem beschleunigen wird, unter anderem durch autonome Waffensysteme.
Auch die Bundeswehr plant die Entwicklung autonomer Waffensysteme, wie aus einem 2019 veröffentlichten Positionspapier hervorgeht. Darin geht es vornehmlich um sogenannte „Taktische unbemannte Flugsysteme“ (TaUAS), die zur Aufklärung eingesetzt werden, aber auch Aufgaben von „Sperren bis hin zu offensiven Wirkmitteln“ übernehmen sollen. Damit ist gemeint, dass TaUAS Gefechtsfahrzeuge der feindlichen Partien oder empfindliche Teile von gepanzerten Fahrzeugen außer Gefecht sollen. Im Positionspapier werden die Waffen daher lediglich als „automatisch“ und weder als autonom noch als tödlich bezeichnet. Trotzdem sind Waffen, die andere Fahrzeuge bekämpfen können aber zumindest potenziell tödlich. Außerdem lassen sie sich nicht per Fernsteuerung betreiben, im Notfall müssen sie selbst auslösen dürfen. Expert:innen kritisieren daher die Taktik der Bundesregierung, mittels irreführender Begriffe, eine Ablehnung durch die Bevölkerung zu verhindern.
Die militärische Anwendung von künstlicher Intelligenz zählt zu der mit der potenziell dramatischsten Auswirkung, wird jedoch vergleichsweise wenig in der Öffentlichkeit diskutiert. Durch die verstärkte militärische Nutzung droht unter anderem eine Destabilisierung internationaler Beziehungen. Viele Länder werden kuzfristige Vorteile erwarten, was einen Rüstungswettlauf mit unabsehbaren Folgen mit sich bringt. Es gilt, nur wer die Technologie zuerst hat, wird auch einen Vorteil davon haben. Diese Bemühungen sieht man beispielsweise in den USA. Die Firma Boston Dynamics, weiltweit führend in der Entwicklung von Robotern, wird massiv vom US-Militär gefördert. Auf ihrer Instagram Seite postet die Firma lustige Videos von tanzenden Robotern und tatsächlich sind die Bewegungen, die die Roboter von Boston Dynamics ausführen können, faszinierend und weltweit einzigartig, doch die Geldgeber dahinter verfolgen andere Interessen.
Darf ein Computer töten?
Autonome Waffensystem können nicht nur das Kriegsgeschehen beschleunigen, sie treffen auch Entscheidungen, die vorher allein Menschen zustanden. Entscheidungen, ob Bomben fallen oder nicht, ob geschossen wird oder nicht und im Zweifel eben auch, ob andere Menschen sterben oder leben. Computer gleichen in sekundenschnelle Kamerabilder mit Datenbanken ab. Ausgestattet mit Software zur Gesichtserkennung finden sie mitunter gesuchte Terrorist:innen zielsicherer als ein Mensch es je könnte. Zusätzlich bekommt der Computer die Anweisung, auch die Umgebung zu analysieren. Damit beginnt das Problem.
Stellen wir uns vor, der Computer findet eine:n gesuchte:n Terrorist:in. Er könnte jetzt die Bombe abwerfen, aber ein Blick auf die Bilder zeigt: in der Nähe ist eine Schule. Der Computer errechnet das Schadensmaß, wägt Gasexplosion, tote Kinder und den Nutzen der Operation ab. Dann entscheidet er.
Ein Computer hat kein Gewissen. Wie er sich entscheidet, hängt allein davon ab, wie man ihn vorher programmiert. Sagt man ihm, er soll rein auf mathematischer Basis entscheiden, dann würde er vermutlich berechnen, dass die Tötung des:der Terrorist:in ein paar tote Kinder rechtfertigt. Man könnte ihm aber auch sagen: Tote Kinder, das geht gar nicht. In diesem Fall niemals schießen. Wie der Computer handelt, wird somit zur staatspolitischen Entscheidung. Fragen der Verhältnismäßigkeit, Begleiterscheinungen, Nebenwirkungen und Kollateralschäden müssen in diese Entscheidungen mit einbezogen werden und am Ende muss sie jemand treffen und das wird am Staatsoberhaupt hängen bleiben.
Hinzu kommt, dass gerade im Krieg der Kontext entscheidend ist. Symbole, die eigentlich als neutral und friedlich gelten, können willentlich missbraucht werden, beispielsweise das Rote Kreuz. Auch Kultur und Geschichte können Handlungen und Kriegspolitik beeinflussen. All das sind Faktoren, die zurzeit von KIs nicht mit einbezogen werden können.
Auch die Frage nach der Haftbarkeit ist noch nicht geklärt. Wenn ein autonomes System tötet, wer wird dann dafür verantwortlich gemacht? Die Offizier:innen? Der Staat? Die Softwareentwickler:innen? Es ist das ewige Dilemma der KI, eines auf das alle Diskussionen über kurz oder lang zurückkehren. Wen soll das selbstfahrende Auto opfern, wenn es einem Unfall nicht mehr ausweichen kann, die Insassen oder die Passanten? In der Realität wird dieses Dilemma wahrscheinlich durch den Markt geklärt. Firmen wie Tesla würde vermutlich ein Modell herausbringen, was die Passanten tötet und eines, das die Insassen opfert.
Vielleicht wird die Frage auch überhaupt nicht relevant sein, weil die Autos einfach so langsam fahren werden, dass solche Unfälle niemals passieren und wir stattdessen nur genervt sind, dass es so langsam voran geht. Nichts desto trotz ist das Auto-Dilemma das gleiche Dilemma, wie das des Militärs, bloß auf einer anderen Skala. Weder Autos noch Kampfdrohnen entscheiden nach irgendeiner Art von Gewissen. Sie entscheiden nach ihrer Programmierung und die ist von Menschen gemacht. Am Ende müssen Menschen die Entscheidung über Leben und Tod fällen und solche Entscheidungen fällen sich nicht leicht.
Die Art der Kriegsführung ändert sich vor unseren Augen
Mit dem Tempo, in dem sich KIs Weiterentwickeln, wächst auch der Druck auf die Regierungen aller Länder, sich um Regulierungen zu bemühen. Bisher blieben diese allerdings ohne große Fortschritte. Definitionen von zentralen Begriffen wie „Autonomie“ oder „Intelligenz“ sind nicht eindeutig festgelegt und rechtliche Rahmenbedingungen unklar. Zwar gibt es das Bestreben mehrerer Länder, darunter auch der Bundesregierung, autonome Waffen zu verbieten, aktuell hält sich jedoch einzig Österreich aktiv daran. Deshalb fordern nun auch vermehrt Parteien wie Grüne und Linke, dass die Bundregierung „ihrem selbst gesetzten Ziel eines Verbots autonomer Waffen folgend“, einen internationalen Verbotsvertrag erwirkt. Ohne Regulierungen und Beschränkungen werden politische Akteure wie die USA, Russland und China in den nächsten Jahrzehnten wie drei Züge aufeinander zurasen, befürchtet KI Experte Jürgen Altmann von der TU Dortmund. Vor allem die USA müsse daran erinnert werden, dass nationale Sicherheit eng mit internationaler Sicherheit zusammenhänge. Ohne massiven Druck durch die Öffentlichkeit werde dies aber kaum gelingen.
Sowohl Ethikexpert:innen als auch KI-Entwickler:innen warnen daher immer stärker vor der Entwicklung autonomer Waffensysteme. So lange die Menschheit das Ruder noch in der Hand hat, sollten maschinelle Entscheidungen nicht dort eingesetzt werden wo das Wohl größerer Gruppen oder der gesamten Gesellschaft auf dem Spiel stehe. Auf der einen Seite bieten diese Systeme zahlreiche ethische Vorteile: Unter ansonst gleichen Umständen sind sie zielsicherer und verhältnismäßiger als andere Kriegsmittel, sie verringern das Risiko für die eigenen Soldaten, ermöglichen effektive Reaktion ohne die Inkaufnahme eines großflächigen Krieges und sind kostengünstig und sparen somit öffentliche Gelder ein. Doch die Tötung durch autonome Drohnen wird als würdelos angesehen, ein Menschenleben wird leichter genommen, wenn kein Gewissen mehr involviert ist. Außerdem untergräbt risikoloses Töten die Erlaubnis zum Töten im Krieg und senkt die Hemmsschwelle erheblich.
Vorerst bleiben Szenarien, in denen Waffensystem vollständig autonome Entscheidungen treffen und Krieg unserer Stelle führen fiktiv. Dennoch ändert sich die Art der Kriegsführung vor unseren Augen. Wir müssen uns beeilen, wenn wir als Menschheit noch ernsthaften Einfluss darauf nehmen wollen.
Für Interessierte: Die Ausgabe 2014/1 des Magazins Ethik und Militär beschäftigt sich ausführlich mit dem Thema „Anonymes Töten durch neue Technologien? Der Soldat zwischen Gewissen und Maschine“