Archiv

Theologe zu autonomen Waffensystemen
"Gefahr inhumaner Entscheidungsfolgen"

An diesem Freitag enden in Genf UN-Beratungen über den Umgang mit automatisierten Waffensystemen. Der Friedensbeauftragte der Evangelischen Kirche, Renke Brahms, sprach sich im Dlf für ein internationales Verbot sogenannter Killerroboter aus. Noch gebe es die Chance, einen weiteren Sprung in der Waffentechnologie sehr genau zu bedenken.

Renke Brahms im Gespräch mit Ann-Kathrin Büüsker |
    Die in Großbrittannien entwickelte Drohne "Taranis" bei einem Testflug 2014
    Soll der Mensch selbstständig entscheidenden Kampfroboter das Schlachtfeld überlassen? (dpa / Chris Ryding )
    Ann-Kathrin Büüsker: Über autonome Waffensysteme habe ich heute Morgen mit Renke Brahms gesprochen, Friedensbeauftragter der EKD. Er beschäftigt sich seit vielen Jahren mit den ethischen Fragen dieser Entwicklung. Wir reden über Waffensysteme, die frei von Emotionen, von Hass, von Wut, von Zweifel entscheiden, ob anzugreifen ist, und das auf der Basis von eingespeisten Fakten. Ich wollte von Renke Brahms wissen, ob wir damit nicht vielleicht dem gerechten Krieg etwas näher kommen.
    Renke Brahms: Die Frage, die sich hier ethisch stellt, ist immer eine Abwägungsfrage: Gibt es Vorteile, gibt es Nachteile. Viele sagen in der Tat, der Vorteil sei, es wäre ohne menschliches Zutun, ohne Emotionen, es wären rein sachliche Informationen. Nun ist aber genau das natürlich eigentlich im internationalen Völkerrecht eine Voraussetzung, dass es auch eine menschliche Entscheidung gibt, und wenn der Mensch vollkommen ausgeschaltet wird aus solchen Entscheidungsprozessen, dann geraten wir natürlich in die Gefahr in der Tat einer inhumanen Entscheidungsfolge und damit auch der Frage, können tatsächlich Systeme, Maschinen so abwägen, dass sie alle Situationen abwägen können und wir Menschen ganz draußen gelassen werden und gar nichts mehr stoppen können.
    Büüsker: Aber Menschen können das doch auch nicht immer alles genau abwägen.
    Brahms: Das stimmt. Aber nehmen Sie den Fall, dass die Maschine erkennt, da gibt es einen Soldaten, daneben steht ein Kind mit einem Spielzeuggewehr. Kann eine Maschine das unterscheiden? Gibt es Kriterien, gibt es Gesichtspunkte, die das tatsächlich unterscheiden können? - Der Mensch kann vielleicht das sehen oder kann aus anderen Informationen erkennen, dass ist vielleicht eine Waffe, die auf einem Schuldach transportiert worden ist. Es gibt immer wieder die Frage: Gibt es nicht Entscheidungen, Abwägungen, die letztlich dann doch der Mensch treffen muss.
    "Chance, einen Sprung in der Waffentechnologie zu stoppen"
    Büüsker: Aber zum derzeitigen Zeitpunkt wissen wir ja noch gar nicht, ob Maschinen nicht unter Umständen auch irgendwann soweit sein können, diese Unterscheidung zu treffen, weil wir sie noch gar nicht entwickelt haben. Bei den Verhandlungen der Vereinten Nationen geht es ja auch darum, einen Entwicklungsstopp zu machen, die Technologie gar nicht voranzutreiben. Nehmen wir uns dann nicht Möglichkeiten, wenn wir jetzt schon aufhören?
    Brahms: Wir haben ja aus der Vergangenheit leider die Erfahrung machen müssen, dass dann, wenn solche Waffen entwickelt worden sind, sie auch eingesetzt worden sind. Das heißt, wir haben an dieser Stelle tatsächlich historisch eine gewisse Chance, einen weiteren Sprung in der Waffentechnologie sehr genau zu bedenken und auch präventiv darauf zuzugehen und vielleicht Grenzen einzuziehen und dann auch ein gewisses Verbot zu erreichen. Sonst geraten wir wieder in Situationen, in denen wir eigentlich immer hinterherlaufen und eigentlich gar nichts mehr stoppen können.
    Büüsker: Aber ist das nicht ein bisschen naiv zu denken, dass eine Technologie, die unter Umständen Einzelnen Vorteile bringen könnte, jetzt noch aufgehalten werden kann?
    Brahms: Naiv? - Ich sage es noch mal: Wir haben, glaube ich, die Chance, an dieser Stelle sehr genau hinzugucken und dann auch zu einem Verbot zu kommen. Wir haben vor einer Weile zum Beispiel international erreicht, dass Laser-Waffen verboten worden sind, weil man gesehen hat, das beschwört eine Gefahr, eine Handhabung dieser Waffen hervor, die wir unbedingt vermeiden wollen. Es gibt ja schon längst Entscheidungen auch im internationalen Recht, zu solchen Verboten zu kommen und zu sagen, das sind Schritte, die über eine Grenze hinausgehen, die wir nicht überschreiten wollen.
    "Es macht einen Unterschied, ob wir das völkerrechtlich verurteilen können"
    Büüsker: Und Sie gehen davon aus, dass sich auch alle immer an dieses Recht halten? Was ist denn, wenn jemand doch weiterentwickelt und dieses Recht bricht. Dann haben wir am Ende diese Waffen und sie sind nur in den Händen einzelner.
    Brahms: Ja, das ist natürlich immer das Argument gewesen, auch bei den Verbotsentwicklungen Richtung Nuklearwaffen oder anderer oder chemischer oder biologischer Waffensysteme. Wir wissen, dass es ein Verbot von chemischen Waffen gibt, und trotzdem haben wir im Syrien-Krieg den Einsatz dieser Waffen erlebt. Es macht aber einen Unterschied, ob wir diese Situation völkerrechtlich verurteilen können. Dazu gibt es internationale Gerichte. Dazu gibt es ein Völkerrecht, was verankert ist. Und es macht einen Unterschied, ob wir das völkerrechtlich verurteilen und verfolgen können, oder ob wir es gar nicht völkerrechtlich verfolgen können und auch nicht beurteilen können.
    Büüsker: Macht es für Sie eigentlich, wenn wir auf diese autonomen Waffensysteme schauen, einen Unterschied, ob die zur Offensive eingesetzt werden oder zur Defensive?
    Brahms: Die Unterscheidung ist ja auch theoretisch. Denn da würde ich dann wiederum sagen, es mag auch naiv sein zu sagen, es gibt die nur zur Verteidigung, sie werden nie offensiv eingesetzt. Und wir haben es auch noch mal so erlebt, dass diese Zielgenauigkeit und das, was uns versprochen wird mit diesen Waffensystemen, auch in der Vergangenheit ja schon eingesetzt worden ist, zum Beispiel zu gezielten Tötungen. Die Präzision dieser Waffensysteme hat dazu geführt, dass das dann eingesetzt wird zur gezielten Tötung, so wie es unter der US-Regierung auch in Afghanistan und in anderen Ländern passiert ist. Auch das verstößt eigentlich gegen das Völkerrecht und beschwört diese Gefahr noch mal hervor.
    Büüsker: Aber ist es nicht eigentlich auch etwas Gutes, wenn es dadurch möglich wird, weniger zivile Opfer zu haben?
    Brahms: Auch da hat man uns schon bei den Drohnen versprochen, dass es zu einer deutlichen Unterscheidung zwischen Zivilisten und Soldaten kommt. Das haben wir im Afghanistan-Krieg leider erlebt, dass das leider überhaupt gar nicht so zum Tragen gekommen ist, wie uns versprochen worden ist. Diese Unterscheidung hat so noch nicht funktioniert, dass man sagen könnte, wir haben hier ein Waffensystem, was auf jeden Fall dazu beiträgt, einen Krieg humaner zu machen.
    Brahms: Mehr in die Prävention investieren als in die Kriegsführung
    Büüsker: Sie glauben nicht, dass es möglich ist, durch die Möglichkeiten der Technologie Krieg gerechter zu machen?
    Brahms: Das glaube ich nicht. Und ich würde auch den ethischen Rahmen noch mal ein bisschen größer ziehen, denn wir investieren wahrscheinlich an dieser Stelle ja Milliarden über Milliarden für Waffensysteme innerhalb eines Krieges. Von der christlichen Ethik sage ich immer, wir vertreten einen Vorrang des Zivilen. Müssten wir nicht viel mehr investieren in die Prävention, in andere Instrumente, um Kriege zu vermeiden, als in die Kriegsführung selber? Das ist für mich eine ethische Frage, die auch dazugehört.
    Büüsker: Wobei man ja auch sagen muss, dass die Investitionen in die Entwicklung von künstlicher Intelligenz ja letztlich auch im zivilen Bereich genutzt werden können, etwa wenn es um selbstfahrende Autos geht.
    Brahms: Das ist richtig und ich glaube, man muss an dieser Stelle auch unterscheiden. Man wird ja nicht eine Entwicklung grundsätzlich an dieser Stelle aufhalten. Es geht ja in diesen Verhandlungen in Genf jetzt vor allen Dingen darum, die Waffensysteme und das Völkerrecht an dieser Stelle in den Horizont zu holen und dafür Entscheidungen vorzubereiten. Und die Bundesregierung hat sich im Koalitionsvertrag dazu verpflichtet, an dieser Stelle dafür einzutreten, ein Verbot dieser Waffensysteme zu erreichen.
    Büüsker: Renke Brahms war das, Friedensbeauftragter der EKD. Wir haben über die Entwicklung autonomer Waffensysteme gesprochen, für die Teile der Vereinten Nationen gerne Richtlinien entwickeln würden. Eine Einigung scheint aber nach einer Woche Verhandlungen in Genf weiterhin weit entfernt.
    Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Der Deutschlandfunk macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.