Archiv

Digitaler Krieg
1 oder 0, Leben oder Tod

Der nächste Krieg wird digital. Das scheint common sense zu sein. Doch was ist Krieg und was ist Terrorismus? Was ist ein Hackerangriff und was Cyberwar? Und können autonome Kampfroboter vor ein Gericht gestellt werden, wenn sie Kriegsverbrechen begangen haben?

Von Thomas Reintjes |
Zu sehen sind Einschusslöcher in einem Auto, verursacht durch einen ferngelenkten Sprengkörper in Kabul am 15. Juli 2014
Drohne: Die technische Entwicklung stellt das Völkerrecht vor viele Fragen und Herausforderungen. (AFP / Shah Marai / Deutschlandradio)
Sensorik: "Radar meldet bewegtes Objekt."
Algorithmus: "Wenn bewegtes Objekt gesichtet, prüfe: Ist es lebendig?"
Sensorik: "Infrarotsensor meldet Wärmeabstrahlung."
Algorithmus: "Wärmeabstrahlung: 1. Check."
Sensorik: "3D-Kamera: 98 Prozent menschenähnliche Form."
Algorithmus: "Mensch: 1. Check. Prüfe: Trägt er eine Waffe?"
Sensorik: "Waffe im Anschlag."
Algorithmus: "Waffe: 1. Check. Feuer: 1."
"Dieses ewige 'Bessere Technik bedeutet Fortschritt', 'mehr High-Tech bedeutet besseren Krieg'... Was soll das heißen? Besserer Krieg, saubereres Töten? Die Möglichkeit, andere zu töten, während man die eigenen Truppen schützt? Was wird das dann für ein Krieg sein?"
Friedensnobelpreisträgerin und Kämpferin gegen Landminen, Jody Williams.
"Der Roboter, vor dem wir gerade stehen, heißt Protector, Beschützer. Es ist ein 500 Kilogramm schweres Fahrzeug, angetrieben von einem Turbo-Diesel, und es kann 500 Kilo Ladung tragen, für Soldaten draußen im Feld. Man kann ihn mit einer Waffe bestücken, sodass die Soldaten ihn zum Feuern nutzen können. Das kann auch ein größeres Mörsergeschütz sein, als sie es auf ihrem Rücken tragen könnten. Das gibt ihnen die Möglichkeit, sich aus sicherem Abstand selbst zu verteidigen."
Wer in den USA über eine Militärtechnik-Messe läuft, begegnet unweigerlich bewaffneten Robotern. Sie bewegen sich nicht wie menschliche Kämpfer auf zwei Beinen fort, sondern auf Rädern oder Ketten, wie der Protector, den Kent Massey bei der Firma HDT entwickelt hat. Ein flaches Fahrgestell, das sich vielseitig nutzen lässt. Auf der Messe publikumswirksam präsentiert mit einer großkalibrigen Waffe.
"Man kann ihn zum Transport von Ausrüstung benutzen, als Funk-Empfänger, er kann als Waffen-Plattform genutzt werden, also als bewaffneter Roboter. Oder als Sanitätsfahrzeug. Verschiedene Zwecke, je nachdem, was gebraucht wird."
Bei aller Vielseitigkeit, die Barb Paynter hervorhebt, hat sich auch der Rüstungskonzern Northrop Grumman für die Präsentation seines Roboters mit einer Waffe entschieden. Ebenso die Konkurrenz von Qinetiq. Dort gibt es aber keine Auskunft, weil den Verantwortlichen die Richtung, die diese Sendung angeblich nimmt, nicht gefällt.
Bewaffnete Roboter sind die logische Weiterentwicklung von Kriegsgerät. Seit sich Soldaten nicht mehr Auge in Auge gegenüberstehen, mit Fäusten oder Schwertern Mann gegen Mann kämpfen, haben sie sich immer weiter vom Schlachtfeld entfernt. Pfeil und Bogen leiteten die Entwicklung ein, heute sind ferngesteuerte Drohnen im Einsatz. Fliegende Roboter. Den Luftraum haben sie als erstes erobert, weil es am einfachsten ist. Robotische Bodentruppen, Schiff- und U-Boot-Drohnen werden folgen. Im Völkerrecht, in der Genfer Konvention, ist geregelt, was im Krieg erlaubt ist und was nicht. Wann und wo Menschen legitim getötet werden dürfen und welche Umstände dies verbieten. Die Regeln des Krieges - sie gelten auch für Maschinen. Aber die Maschinen bringen die Regelwerke an ihre Grenzen.

Eine Kampfdrohne in der Luft
Eine Kampfdrohne in der Luft (dpa picture alliance / Tsgt Effrain Lopez)
Brad Allenby, Professor für Ingenieurwesen und Ethik, Arizona State University:
"Wo ist das Schlachtfeld? Bei den Kämpfen zu Napoleons Zeiten wussten wir das noch. Bei moderner Kriegsführung wissen wir noch nicht einmal mehr, wo das Schlachtfeld ist."
Chirurgische Kriegsführung. Sind die Orte in Pakistan oder Libyen, in denen einzelne Häuser von Drohnen bombardiert werden, Kriegsschauplätze? Und umgekehrt:
"Menschen steuern Drohnen von Las Vegas aus. Macht das Las Vegas zu einem legitimen militärischen Ziel? Überall auf der Welt beteiligen sich Menschen am Cyberkrieg. Macht das alle diese Beteiligten zu legitimen militärischen Zielen? Sehr schwierige Fragen, wenn man nicht versteht, dass sich die geopolitische Struktur verändert hat. Die Annahmen, die dem Kriegsvölkerrecht unterliegen, könnten ungültig geworden sein."
Befinden sich die USA im Krieg mit Pakistan? Experten bezeichnen den Drohnenkrieg immer wieder als rechtswidrig. Dass die Flugroboter gar nicht immer von der Armee eingesetzt werden, sondern meist vom Geheimdienst CIA und beauftragten Unternehmen ist eine weitere Herausforderung für Recht und Gesetz. Ferngesteuerte Waffen scheinen etablierte Regularien und grundsätzliche Definitionen in Frage zu stellen.
Sensorik:"Höhe 600 Fuß."
Algorithmus: "600 Fuß, Check. Fahrwerk: 1!"
Sensorik: "Fahrwerk ausgefahren."
Algorithmus: "Landecheck ausführen."
Sensorik: "Alle Parameter optimal zur Landung. 350 Fuß."
Algorithmus: "Automatische Landung: 1!"
Missy Cummings, Professorin für Luft- und Raumfahrt am Massachusetts Institute of Technology:
"Vor 20 Jahren gehörte ich zu den ersten weiblichen Piloten von Kampfjets. Als ich in einer F18 Hornet saß, wurde mir klar, wie viel Automation zu diesem Zeitpunkt schon in den Systemen steckte. Als ich zum Beispiel sah, wie gut Flugzeuge auf Flugzeugträgern landeten und wie sich Raketen zu der Zeit entwickelten, war mir klar, dass innerhalb von 20 Jahren die Kriegstechnik die menschlichen Fähigkeiten in den Schatten stellen würde. Und dann tauchten die Drohnen auf."
Immer mehr können die Systeme besser als Menschen es jemals könnten. Sie sind präziser, schneller und machen weniger Fehler. Auch wenn ihre Intelligenz beschränkt ist.
Kampfmaschinen sollen autonom Entscheidungen fällen
"Die wohl fortschrittlichste Drohne ist der Global Hawk. Wenn er den Kontakt zur Bodenstation verliert, kann er selbstständig aus vorprogrammierten Landeplätzen einen auswählen und dort landen. Das ist schon mehrfach vorgekommen. Es wird viel daran geforscht - militärisch und kommerziell - die Autonomie zu verbessern, sodass diese Flugzeuge selbstständig urteilen können."
Autonom vernünftige Entscheidungen treffen, ohne dass ein Mensch eingreift. Das ist die Zukunft für alle Militärroboter und Drohnen, die heute noch ferngesteuert werden oder vorgegebenen Wegen folgen.
Cummings: "Im Marine Corps wird derzeit versucht, einen Hubschrauber mit so viel Autonomie auszustatten, dass er selbst entscheiden kann, wo er landet. Hubschrauber mögen ebene Oberflächen, keinen Matsch, sondern harte, feste Flächen. Die Frage ist also, ob eine Kombination von Sensoren solche Flächen identifizieren kann, sodass der Hubschrauber dort sicher landen kann."
Ein Hubschrauber, der abwägt. Weil es den perfekten Landeplatz nicht gibt, muss er entscheiden, welcher der beste ist. Er muss seine Umgebung analysieren und daraus Schlüsse ziehen. Er muss die Welt verstehen.
Barb Paynter: "Durch die größere Feuerkraft und dadurch, dass man das System nach vorne stellt, können die Soldaten von weiter hinten agieren und sind besser geschützt. Das rettet Leben. Roboter tun das heute bereits erfolgreich. Die Firma iRobot - Zivilisten bekannt durch ihre Staubsaugerroboter - hat bereits Tausende kleiner elektrischer Kettenfahrzeuge an Militärs verkauft. Die brauchen immer wieder Nachschub, weil die Roboter im Einsatz zerstört werden. Mark Belanger verantwortet die Verteidigungstechnik bei dem Unternehmen.
"Wir sind sehr stolz darauf, dass einige Roboter im Einsatz zerstört wurden. Jedes Mal, wenn ein Roboter zerstört wird, bedeutet das einen verletzten Soldat weniger. Wenn es eine Bedrohung gibt, eine potenzielle Bombe, dann schicken sie den Roboter hin, um es sich anzusehen. Ja, manchmal fliegt er dabei in die Luft, aber das entspricht einem weiteren geretteten Leben."
Noch sind die Roboter unbewaffnet, aber auch iRobot entwickelt einen bewaffneten Kampfroboter.
"Wir haben sogar schon Waffen auf Robotern vorgeführt. Unser größter Roboter, der heute nicht hier ist, der Warrior, Krieger, ein gut 200 Kilo schwerer Roboter, hat gerade mit einem M240 Bravo, einem Maschinengewehr, in einem kontrollierten Experiment gefeuert."
Das Experiment fand in Fort Benning statt, einem Army-Stützpunkt im US-Bundesstaat Georgia. Auch die anderen Hersteller bewaffneter Roboter haben ihre Maschinen dort vorgeführt. Manche zeigen stolz die Videos auf ihrem Messestand. Sie wollen Eindruck machen. Denn die Army wird sich bald auf wenige Systeme festlegen, die sie weiter entwickeln will. Für die erfolgreichen Unternehmen ein Riesengeschäft. Manche rechnen damit, dass in zehn Jahren auf jeden US-Soldaten zehn Roboter kommen.
Roboter fordern Menschen auf, sich zu autorisieren
In Israel oder der Schweiz wird vergleichbare Technik entwickelt und getestet. Schon 2007 stellte Südkorea einen Plan vor, die Grenze zum Norden von Robotern schützen zu lassen.
"Wenn sich ein Mensch auf zehn Meter nähert, fragt ihn der Roboter nach seiner Identität. Falls der Fremde das Passwort nicht kennt und einen weiteren Schritt nach vorne macht, schießt der Roboter automatisch",
erklärte damals ein Vertreter des Handelsministeriums dem Journalisten Martin Fritz. Inzwischen sind Roboter von Samsung an der Grenze installiert, die Schießautomatik soll aber noch abgeschaltet sein.
Drohnen, die Situationen immer besser analysieren und verstehen können. Autopiloten, die Menschen überlegen sind. Und bewaffnete Roboter, die Leben retten. Manche wollen diese Technologien kombinieren - um noch mehr Leben zu retten. Nicht nur die von Soldaten, sondern vor allem die von Zivilisten.
"Wir haben heute all diese unglaublichen Geräte, an die vor 100 oder 200 Jahren noch gar nicht zu denken war. Vielleicht können wir in Zukunft Kriege - so schrecklich sich das auch anhört - weniger zerstörerisch für Unbeteiligte machen."
Ronald Arkin, Leiter des Labors für Mobile Roboter am Georgia Institute of Technology:
"Das werden Systeme sein, die sehr spezielle Operationen durchführen, mit extremem Risiko nicht nur für die Soldaten, sondern auch für Nicht-Kämpfer. Ich beschäftige mich mit den Todesopfern unter Nichtbeteiligten. Um schlussendlich - was nicht einfach ist - Systeme zu bauen, die Menschen auf dem Schlachtfeld in ethischen Fragen überlegen sind."
Autonome Waffen wären das. Roboter, die selbst entscheiden, wann sie den Abzug ziehen. Sie müssten dazu einschätzen können, wann ein Eingreifen nötig ist und welche Angriffsstärke angemessen ist.
"Was wir brauchen, ist ein besseres Urteilsvermögen"
Ronald Arkin: "Urteilsvermögen ist eine Herausforderung, die noch nicht gemeistert wurde. Aber Fakt ist auch, dass Menschen darin manchmal sehr schlecht sind. Ein Kollege von mir war als Lieutenant in Vietnam. Er erzählte, dass seine Leute in einer Situation auf freiem Feld auf alles schossen, was sich bewegte. Ein Roboter kann das auch, das ist trivial. Aber was wir brauchen, ist ein besseres Urteilsvermögen, bevor sie schießen dürfen. Roboter müssen besser sein als Menschen, bevor wir sie aufs Schlachtfeld schicken. Das ist eines der Probleme."
2.227 Menschen haben ferngesteuerte amerikanische Drohnen laut der pakistanischen Regierung in den Jahren 2008 bis 2013 in Pakistan getötet. Drei Prozent davon sollen Zivilisten gewesen sein, wobei Menschenrechtsgruppen diese Angabe für zu niedrig halten. Autonome Drohnen müssten diese Quote nachweislich senken können, um ihren Einsatz zu rechtfertigen.
Sensorik: "Verdächtige Person identifiziert."
Algorithmus: "Verdächtige Person 1, Check. Prüfe: Position auf der Terrorliste?"
Sensorik: "Nummer vier der afghanischen Al Kaida."
Algorithmus: "Prüfe: Sind andere Personen in der Nähe?"
Sensorik: "Sechs unbewaffnete Zivilisten in unmittelbarer Nähe."
Algorithmus: "Anzahl Zivilisten 6. Klar machen zum Feuern. Prüfe: Wo halten sie sich auf?"
Sensorik: "Abfrage Koordinaten. Gelände gehört zu einem Krankenhaus."
Algorithmus: "Feuerfreigabe 0. Abbruch! Abbruch!"
Schneller und sicherer, richtiger und rationaler sollen die Entscheidungen autonomer Systeme sein - sagen die einen Robotiker. Unmöglich, sagen die anderen.
Noel Sharkey, Professor für Künstliche Intelligenz und Robotik an der Universität Sheffield:
"Dass sie schnell und akkurat sind, heißt nicht, dass sie verstehen, was vor sich geht. Sie können Zivilisten und Militärangehörige nicht unterscheiden. Das ist sehr schwierig umzusetzen. In der Robotik versuchen wir seit über 50 Jahren, Bilderkennung und Künstliche Intelligenz einzusetzen und wir können gerade einmal einen Löwen von einem Auto unterscheiden. Die Idee, ein solches Gerät in ein Kriegsgebiet zu schicken, wo es Kinder, Frauen, Unschuldige gibt, und zu denken, es könnte zwischen denen und Soldaten unterscheiden, ist einfach nur verrückt."
Auch was sogenannte Kollateralschäden bedeuten, können Maschinen wohl kaum begreifen. Sie lassen sich nicht beziffern. Wie soll ein Algorithmus sie dann abwägen können, gegen ein potenziell wichtiges Ziel?
Noel Sharkey: "Sie können nicht beurteilen, was angemessen ist. Leider - mir gefällt das nicht - ist es laut Kriegsvölkerrecht legal, Zivilisten zu töten, sofern das im Verhältnis steht zum militärischen Vorteil. An Militärakademien werden Doktorarbeiten dazu geschrieben, was militärischer Vorteil bedeutet. Solche Entscheidungen verlangen einen sehr erfahrenen Kommandeur. Roboter können niemals diese Fähigkeit zur Abwägung haben."
Waffen einzusetzen, die wahllos töten, wäre ein Kriegsverbrechen. Das Völkerrecht verlangt, dass Militärs die Zivilbevölkerung schützen, dass sie abwägen zwischen militärischem Vorteil und Kollateralschäden und dass Angriffe mit angemessener Stärke ausgeführt werden. Und bevor Staaten neu entwickelte Kriegswaffen einsetzen, müssen sie sie selbst kritisch überprüfen.
"Artikel 36 des ersten Zusatzprotokolls zu den Genfer Konventionen sagt, dass alle neuen Waffensysteme, bevor sie genutzt werden können, daraufhin überprüft werden müssen, ob sie mit dem Kriegsvölkerrecht konform sind."
Peter Asaro, Stellvertretender Vorsitzender des Internationalen Komitees für die Kontrolle robotischer Waffen.
"Besonders relevant ist hier Artikel 57 dieses Protokolls, der sagt, dass man als Kommandeur die Pflicht hat, Bürger zu schützen, dass man in jedem Fall den Einfluss auf Zivilisten in Betracht ziehen muss und Entscheidungen treffen muss, die sie schützen. Und das impliziert für mich, dass ein Mensch die Entscheidung treffen sollte."
Das ist Peter Asaros Interpretation, andere könnten es vielleicht anders sehen. Deshalb kämpft seine Organisation für ein Verbot von autonomen Waffensystemen - oder wie er sie nennt: von Killer-Robotern.
Asaro: "Ich denke, das bestehende Recht impliziert, dass diese Maschinen in der vorhersehbaren Zukunft die Bedingungen nicht erfüllen werden. Aber ich finde es wichtig, aus Prinzip und um Klarheit zu schaffen, diese Art von Systemen zu verbieten."
Eine Petition gegen maschinengesteuertes Töten
Asaro hat eine breite Basis von Unterstützern. Mehr als 270 Ingenieure und Computerwissenschaftler aus 37 Ländern unterzeichneten im Oktober 2013 einen Aufruf, Entscheidungen über Leben und Tod nicht Maschinen zu überlassen. In der Kampagne zum Stopp von Killer-Robotern arbeitet die Gruppe zusammen mit Amnesty International, Human Rights Watch und anderen Organisationen.
"Es gibt eine große, große Mehrheit von Leuten in den USA, die nie wieder sehen wollen, wie Leichensäcke nach Hause gebracht werden. Das ist ein Antrieb für die Drohnentechnik, mit dem sich noch nicht richtig auseinandergesetzt wurde. Es gibt einen Drang, auf autonome Waffen zu setzen, weil sie unsere Soldaten schützen. Das ist unzweifelhaft eine gute Sache. Nur, dass wir dann bestimmten Prinzipien des Gerechten Krieges oder dem Kriegsvölkerrecht nicht entsprechen."
Die Leben der eigenen Soldaten schützen ist das Versprechen der Rüstungsindustrie. Sollte das auch das Hauptmotiv einer Armee sein, könnte das in eine moralische Zwickmühle führen, sagt der Philosophie-Professor John Kaag von der University of Massachusetts in Lowell. Er argumentiert mit der Lehre vom Gerechten Krieg, die ihren Ursprung im Römischen Reich hat. Heute sind die Prinzipien - weiterentwickelt und verfeinert - im Kriegsvölkerrecht verankert.
Eine Neun-Millimeter-Patrone 
Kann es so etwas wie den gerechten Krieg geben? (picture-alliance/ dpa - Daniel Karmann)
"Während wir unsere eigenen Truppen schützen, werden wir anfälliger dafür, bestimmte Traditionen eines gerechten Krieges zu umgehen. Etwa gerechte Absichten zu haben, einen zulässigen Kriegsgrund, eine legitime Autorität. Diese lange etablierten Normen eines Gerechten Krieges könnten umgangen werden, wenn wir US-Truppen nicht einem Schadenrisiko aussetzen. Diese Technologien könnten dazu führen."
Bisher gibt es nur eine Direktive des US-Verteidigungsministeriums, die besagt, dass an Entscheidungen über Leben und Tod immer Menschen beteiligt sein werden. Wie weit entfernt sich diese Menschen vom tatsächlichen Kriegsgeschehen befinden, wird nicht definiert.
Algorithmus: "Positionscheck.
Sensorik: "Zielposition exakt erreicht.
Algorithmus: "Zielposition: 1. Visuelle Analyse!
Sensorik: "Kamerasystem identifiziert geschlossene Tür direkt voraus.
Algorithmus: "Was sagen die Erschütterungssensoren?
Sensorik: "Schwingungen weisen darauf hin, dass sich in dem Raum zwei Menschen bewegen.
Algorithmus: "Menschen: 2. Können wir sie hören?
Sensorik: "Stereomikrofon erkennt Stimmprofil potenzieller Zielperson zu 78 Prozent.
Algorithmus: "Fahrwerk, Arm: vorwärts.
Der aus der Ferne geführte Krieg kann durchaus dazu führen, dass Krieg gerechter wird: Anstatt beim Durchkämmen eines Gebäudes eine Handgranate in einen Raum mit potenziellen Feinden zu rollen, könnte sich eine Maschine dort umsehen, ohne Leben aufs Spiel zu setzen - auf beiden Seiten. Die frühere Kampfjetpilotin Missy Cummings:
"Wohl einer der größten Sprünge nach vorn der vergangenen 20 Jahre ist, dass im Drohnenkrieg jetzt Juristen an der Tötungsentscheidung beteiligt sind. Als ich Pilotin war, war es allein meine Entscheidung eine Bombe abzuwerfen oder nicht, auf Grundlage der Regeln, die mir vor dem Flug genannt wurden. Heute schaut ein Drohnenpilot auf einen Bildschirm und spricht mit wohl fünf bis zehn anderen Leuten, die auf den gleichen Bildschirm gucken, von denen einer ein Jurist ist. Es ist eine Entscheidung eines Komitees, eine Waffe auszulösen. Das ist meiner Meinung nach eine viel bessere Form der Kriegsführung, weil da jemand beteiligt ist, der das Kriegsvölkerrecht viel besser kennt als ich. Und weil der Pilot sich nicht in Gefahr begibt, empfindet er auch deutlich weniger körperlichen Stress."
Ein wichtiges Argument der Befürworter von mehr Automation in Kriegsgerät. Stress, Angst oder auch Rachegefühle sind kein guter Berater für Soldaten an der Front. Die Technik wird weiter dahingehend entwickelt werden, die Welt der Menschen besser wahrzunehmen und zu erfassen. Und je mehr Informationen und Analysen sie den Entscheidern bieten kann, desto besser sollten deren Entscheidungen werden. Nur: Vielen fällt es eben schwer, daran zu glauben. Friedensnobelpreisträgerin Jody Williams:
"Dieses ewige 'Bessere Technik bedeutet Fortschritt', 'mehr High-tech bedeutet besseren Krieg'... Was soll das heißen? Besserer Krieg, saubereres Töten? Die Möglichkeit, andere zu töten, während man die eigenen Truppen schützt? Was wird das dann für ein Krieg sein?"
Mehr Automation, mehr maschinelle Intelligenz in Zusammenarbeit mit menschlichem Urteilsvermögen, das sind die Gegenwart und die nahe Zukunft der Kriegsführung. Die Frage bleibt, ob in ferner Zukunft die moralische Instanz auch von Maschinen wahrgenommen werden kann. Robotiker Ronald Arkin:
"Ich gehe der Frage nach, wie man Roboter-Systemen menschengemachte Regeln der Moral auferlegen kann. Das hat nichts mit anspruchsvollem moralischem Urteilsvermögen zu tun: die Moral wurde ja von Menschen festgelegt - und codiert im Kriegsvölkerrecht oder den Einsatzregeln der NATO - und wird einfach vom Roboter befolgt."
Fachleute glauben nicht an die sichere Urteilsfähigkeit von Kriegsrobotern
Doch die Regeln sind nicht so einfach zu befolgen wie ein Kochrezept oder eine Routenbeschreibung. Verträge und Abkommen wurden nicht in Computercode geschrieben. Sie müssten übersetzt und dabei interpretiert werden. Ohnehin verlangt das allgemein formulierte Völkerrecht in jeder einzelnen Situation, in jedem Anwendungsfall eine Interpretation. Viele Ingenieure, Juristen und Ethiker glauben deshalb nicht, dass Roboter jemals Entscheidungen auf Basis des Kriegsrechts fällen können. Sollten sie es können, dürften sie aber tatsächlich über Leben und Tod entscheiden.
"Es gibt im Völkerrecht keine Regel, die eindeutig sagt, dass Roboter eine solche Entscheidung nicht fällen dürfen. Es würde also den Einsatz solcher Roboter nicht verbieten. Viele Menschen sagen, dass es ungesetzlich sein sollte, einfach weil Roboter eine solche Entscheidung nicht fällen sollten."
Christof Heyns, UN-Sonderberichterstatter für außergerichtliche und willkürliche Tötungen.
"Man hört es schon im Namen: Menschenrechte und humanitarian law, Völkerrecht. Man geht davon aus, dass man mit Menschen zu tun hat, die Entscheidungen fällen. Als diese Rechtssysteme entwickelt wurden, war gar nicht daran zu denken, dass Menschen möglicherweise Entscheidungen darüber, wer leben und wer sterben wird, nicht mehr selbst fällen."
Vielleicht müssen die alten Abkommen deshalb noch einmal kritisch überprüft werden, mit dem Wissen im Hinterkopf, dass Roboter eines Tages über Leben und Tod entscheiden. Oder neue Abkommen könnten festlegen, dass an solchen Entscheidungen immer Menschen beteiligt sein müssen.
Christof Heyns: "Das letzte Wort ist noch nicht gesprochen, aber ich denke dass prinzipiell in jede Entscheidung über den Gebrauch tödlicher Gewalt letztlich menschliche Entscheidungskompetenz bedeutsam einfließen muss."
Heyns hat den Vereinten Nationen einen Bericht vorgelegt, der die Argumente für und gegen autonome Waffensysteme zusammenfasst. Zwei Lager stehen sich gegenüber. Auf der einen Seite, diejenigen, die "Killer Roboter" am liebsten sofort verbieten würden. Wie Stephen Goose von Human Rights Watch.
"Wir wollen diese Waffen stigmatisieren und sicherstellen, dass Menschen sie niemals entwickeln, herstellen und einsetzen. Deshalb ist das präventive Verbot das einzig Sinnvolle."
Auf der anderen Seite diejenigen, die zwar nicht hundertprozentig sicher sind, dass Roboter sich im Krieg besser verhalten werden als Menschen. Die dies aber für möglich halten. Der Jurist Kenneth Anderson von der American University in Washington:
"Vielleicht wird diese Technik keinerlei Vorteile bieten. Aber es könnte auch sein, dass wir enorme Fortschritte dabei machen, Leid im Krieg zu begrenzen. Wir haben keine Ahnung, welche Möglichkeiten die Technik eröffnet, und auch nicht, wo sie an ihre Grenzen stößt."
Wenn wir erst einmal selbstfahrenden, autonomen Autos unser Leben anvertrauen und sie sich als sicherer herausgestellt haben, argumentiert Anderson, würden wir auch erwarten, dass das Militär solche Technik nutzt.
"Deshalb ist ein weitreichendes Verbot dieser Technik weder machbar noch erstrebenswert. Es lässt außer Acht, dass die heutigen Gesetze sich parallel zur technischen Entwicklung anpassen können."
UN-Sonderberichterstatter Christof Heyns schlägt der Weltgemeinschaft vor, sich auf ein Moratorium zu einigen.
"Ein Moratorium, das besagt, dass Roboter nicht selbst tödliche Entscheidungen fällen und Staaten die Möglichkeit dazu nicht wahrnehmen, bis sich ein hochrangiges Gremium detailliert mit diesem Thema auseinandergesetzt hat."
Das scheint ein guter Kompromiss zu sein. Der Roboter-Befürworter Ronald Arkin unterstützt das Moratorium.
"Die Welt muss einen Schritt zurücktreten und darüber nachdenken, was wir tun. Wir brauchen Zeit, um zu verstehen. Wir müssen da rational herangehen, ohne Angst, bedächtig, sorgfältig. Und dann sehen, ob wir an Kampfhandlungen Unbeteiligten helfen können."