Ralf Krauter: Bei der UNO in Genf beraten Experten diese Woche wieder mal, ob und wie sich ein globales Verbot von Killerrobotern umsetzen ließe. Es geht um clevere Kriegsgeräte wie zum Beispiel Drohnen, die selbstständig entscheiden, wen und wann sie töten. Solche letalen autonomen Waffensysteme gibt es schon, und manche Militärs würden sie künftig gern in großem Stil einsetzen. Doch dagegen regt sich Widerstand, unter anderem auch von Dr. Frank Sauer, Politikwissenschaftler an der Bundeswehr-Universität in München. Ich habe ihn vorhin im UNO-Gebäude in Genf erreicht und gefragt, was aus seiner Sicht die drei wichtigsten Argumente sind für ein globales Verbot von Killerrobotern.
Frank Sauer: Na, es gibt drei Bündel an Argumenten. Einmal ein völkerrechtliches, dann ein Bündel an Argumenten, die sich eher aus so einer Überlegung zur internationalen Sicherheit speisen, und dann ein ethisches Argument. Völkerrechtlich ist es vollkommen unklar, ob solche Waffensysteme überhaupt völkerrechtskonform einsetzbar wären. Dann, aus einer Sicherheitsperspektive, ist eben die Gefahr da, dass solche Systeme die Konfliktschwelle senken, also insgesamt destabilisierend wirken auf die internationale Sicherheit. Und zu guter Letzt ist es auch aus einer ethischen Perspektive, zumindest aus meiner Sicht, ganz grundsätzlich falsch, Tötungsentscheidungen an Algorithmen zu delegieren. Ich finde vielmehr, dass wir Menschen mit dem Töten im Krieg weiterhin unser Gewissen belasten sollten.
USA und Russland bremsen Verbot
Krauter: Jetzt sind diese Argumente, die Sie und andere nennen, plausibel und nachvollziehbar, trotzdem gibt es in der Runde von Experten, die sich da in Genf inzwischen seit einigen Jahren regelmäßig versammeln, ja Vertreter von Staaten, die gegen ein Verbot solcher autonomer Kampfmaschinen mit Lizenz zum Töten sind. Wer bremst?
Sauer: Also am prominentesten bremsen die USA und Russland, aber es gibt auch in dieser überschaubaren Gruppe von skeptischen Staaten - skeptisch, was eine Regulierung oder ein Verbot betrifft - noch eine Reihe von anderen. Ich würde auch Großbritannien dazuzählen, ganz sicher auch Israel und vielleicht noch ein, zwei weitere.
Krauter: Welche Argumente führen die Skeptiker ins Feld?
Sauer: Unterschiedliche. Also die USA beispielsweise argumentieren stets, dass es zu früh ist zu entscheiden, ob und wie da reguliert oder gar verboten werden soll, weil die USA sich eben erhoffen, dass durch den Einsatz von modernen Technologien und von mehr Autonomie in Waffensystemen vielleicht die Kriegsführung völkerrechtskonformer gemacht werden kann, also man beispielsweise einen besseren Schutz von Zivilistinnen und Zivilisten in der Kriegsführung gewährleisten kann. Das ist sicher auch nicht falsch und durchaus bedenkenswert, es ist bloß eigentlich kein Argument gegen ein Verbot vollautonomer Waffensysteme, denn es geht ja nicht darum, dass der Krieg nicht vielleicht präziser und völkerrechtskonformer geführt werden soll und man Zivilistinnen und Zivilisten besser schützen soll - das will wohl sicher jeder. Es geht darum, dass wir die menschliche Kontrolle darüber bewahren. Und darum geht es eben, wenn man sagt, vollautonome Waffensysteme verbieten. Russland hingegen hat eine andere Argumentationsschiene. Russland beteuert permanent, dass es diese Waffen gar nicht gäbe und auch auf absehbare Zeit nicht geben wird. Gleichzeitig präsentiert Kalaschnikow auf Rüstungsmessen einen Geschützturm, der ein Maschinengewehr koppelt mit Hard- und Software für Gesichtserkennung - also im eigenen Land werden diese Maschinen schon entwickelt. Und hier sitzt Russland und sagt, wir wissen gar nicht, worüber wir hier eigentlich reden sollen. Das ist schon etwas ärgerlich.
Krauter: Wie ist denn der Vorteil, den solche Systeme bieten würden, wenn sie es denn mal in großem Stil gäbe, zu bewerten? Also eins der Argumente, was man immer wieder hört, ist, wenn zum Beispiel eine Drohne in einem Luftkampf autonom Entscheidungen trifft, welchen anderen Piloten sie abschießt, und nicht auf die Freigabe eines Operators warten muss, der den Schussbefehl gibt, hat die natürlich extreme Geschwindigkeitsvorteile und letztlich alle anderen keine Chance mehr. Ist das stichhaltig?
Sauer: Das ist absolut stichhaltig. Es gibt ein ganzes Bündel an Argumenten, die aus einer militärischen Perspektive für mehr Autonomie in Waffensystemen sprechen, aber sie haben das aus meiner Sicht zentrale Element rausgedeutet, und das ist Geschwindigkeit. Jede Bekämpfung von einem Ziel durchläuft einen Entscheidungszyklus. Ich muss das Ziel finden, fixieren, anpeilen und dann bekämpfen. Und je schneller dieser Entscheidungszyklus durchlaufen wird, desto schneller kann ich das Ziel vernichten, bevor vielleicht mein System vernichtet wird. Somit ist Geschwindigkeit das Hauptziel, und Autonomie im Waffensystem und das Herausdrängen des langsamen Menschen aus diesem Ablauf in diesem Entscheidungszyklus ist eben das, was unglaubliche Beschleunigung erzeugt.
Rüstungskontrolle über Verifikation
Krauter: Das macht klar, warum es zumindest aufseiten der Militärs nicht wenige gibt, die sich solche Systeme mittelfristig wünschen würden auf den Schlachtfeldern. Kommen wir darauf zu sprechen, was passieren würde, wenn es gelingen würde, solche Systeme global zu ächten. Das würde ja nur Sinn machen, wenn man es überprüfen kann. Aber dann müsste man ja letztlich so einer Drohne nach einem Vorfall auf einem Schlachtfeld ins elektronische Gehirn schauen können, um festzustellen, da hat ein Pilot per Fernsteuerung den Schussbefehl gegeben oder der Bordcomputer selbst.
Sauer: Genau, das Stichwort aus einer Rüstungskontrollperspektive lautet Verifikation, also wie kann man verifizieren, also überprüfen, ob Verträge tatsächlich eingehalten werden. Jeder vernünftige Rüstungskontrollvertrag benötigt eigentlich ein Verifikationsinstrument, denn sonst ist er eigentlich das Papier nicht wert, auf das er geschrieben steht. Jetzt ist die Verifikation aber außerordentlich knifflig in diesem Fall. Und in der politischen Diskussion hier in Genf bei den Vereinten Nationen spielt so was noch gar keine Rolle, weil man sich hier ja schon über die grundlegenden Dinge nicht einig ist. Aber man könnte sich tatsächlich vorstellen, dass nachdem vielleicht ein Verdacht geäußert wurde, dass ein Staat, der diesen Vertrag unterschrieben hat, den wir jetzt mal hypothetisch annehmen, seine Waffensysteme vollautonom eingesetzt hat, dass dann also eine Datenspur erhoben werden könnte von einer Überprüfungsbehörde - so ähnlich wie zum Beispiel die Atomenergiebehörde, die das macht für die Überprüfung des Nichtverbreitungsvertrags - und eben man tatsächlich verifizieren könnte, gab es hier eine Mensch-Maschine-Interaktion, bevor die Waffe ausgelöst wurde, oder ist das im System algorithmisch entschieden worden. Da muss man eine Menge, glaube ich, noch Hirnschmalz reinstecken. Da braucht man Kryptolösungen und mit Sicherheit eine Möglichkeit, diese Daten, die man dann erheben würde, so zu schützen, dass man sie nicht manipulieren kann, zumindest nicht so leicht, und dergleichen mehr. Es ist sicher nicht unmöglich, aber es gibt fast niemanden weltweit, der systematisch zurzeit länger über diese Sache mal nachdenkt. Es gibt wirklich nur Ansätze bisher.
UN hinkt bei Verhandlungen hinterher
Krauter: Sie verfolgen ja diese Verhandlungen auf Expertenebene in Genf schon seit einigen Jahren. Gibt es denn jetzt Entwicklungen, die Sie optimistisch stimmen könnten, dass es da mittelfristig vorangehen könnte?
Sauer: Die Woche ist noch nicht zu Ende, man muss auf jeden Fall hier immer mit Überraschungen rechnen. Sehr optimistisch bin ich allerdings nicht. Ich rechne zum jetzigen Zeitpunkt damit, dass wir hier wieder nur mit der Entscheidung nach Hause gehen, diese Gespräche unverbindlich fortzuführen, statt eben zu echten Verhandlungen überzugehen im nächsten Jahr und zu versuchen, einen echten Vertragstext zu entwickeln, der eben reguliert oder möglicherweise eben im Optimalfall auch ein klares Verbot ausspricht. Diese Entwicklung ist der Geschwindigkeit, mit der die Technik sich fortentwickelt, und den Risiken, die vollautonome Waffensysteme bergen, aus meiner Sicht nicht angemessen. Also für mich, der ich ja das Thema schon seit über zehn Jahren beackere und seit 2014 hier nach Genf zu den Vereinten Nationen fahre, ist dieses gletscherartige Tempo der diplomatischen Gespräche offen gesagt inzwischen einigermaßen frustrierend.
Krauter: Welche Rolle spielen die Deutschen, wie klar positionieren die sich denn für oder gegen eine globale Ächtung von Killerrobotern?
Sauer: Deutschland hat schon in den letzten beiden Koalitionsverträgen, also in dem Vertrag aus 2013 und dem aktuellen 2018, sich klar für eine Ächtung ausgesprochen von vollautonomen Waffensystemen, beschreitet hier in Genf allerdings gemeinsam mit Frankreich eher so eine Art Mittelweg und versucht, diese Kluft, die existiert zwischen den inzwischen 26 Staaten, die klar für ein Verbot sind, und der sehr großen Gruppe von Staaten, die zumindest mit dem Status quo nicht zufrieden sind und neues Recht erwirken wollen, und den Bremsern, die ich vorhin geschildert habe – also beispielsweise USA, Russland, Großbritannien, Israel –, zwischen diesen beiden also so eine Art Vermittlungsposition einzunehmen, indem Deutschland und Frankreich vorschlagen, zunächst mal eine politische Deklaration, die nicht bindend ist, zu verabschieden. So argumentiert Deutschland das als so eine Art ersten Schritt hin zu dem erwünschten Ziel am Ende, nämlich dem Verbot. Das ist sicher vernünftig, es birgt allerdings das Risiko, dass das, was Deutschland für den ersten Schritt hält, bei manchen anderen Staaten der letzte Schritt sein könnte in dem Prozess. Dann hätten wir unter Umständen eben die Situation, dass der gesamte Prozess mit dieser, ja, weichen, nicht bindenden politischen Deklaration endet, und das wäre natürlich schon einigermaßen unzufriedenstellend und dann tatsächlich auch dem im Koalitionsvertrag formulierten Ziel nicht gerecht werdend.
Krauter: Informationen und Eindrücke waren das von Dr. Frank Sauer. Er ist Politikwissenschaftler an der Bundeswehr-Uni München und verfolgt in Genf die aktuelle Diskussion über eine mögliche künftige UN-Konvention gegen letale autonome Waffensysteme.
Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Der Deutschlandfunk macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.