Noch gibt es sie nicht, die Künstliche Intelligenz, die feindliche Kämpfer erkennt und bekämpft. Vollautonome Kampfroboter sind Science Fiction. Doch teilautonome Waffensysteme sind inzwischen in vielen Einsätzen Alltag.
Teilautonome Waffentechnik bereits Realität
An der innerkoreanischen Grenze patroullieren seit Jahren Roboter, die Menschen erkennen und angreifen können. Nur ist diese Funktion bisher angeblich nicht aktiviert worden. Großbritannien entwickelt die Drohne "Taranis". Sie soll beispielsweise feindlichen Radarstationen automatisch ausweichen können. Die "Times" hat berichtet, der Hersteller arbeite unter der Prämisse, dass in Zukunft auch autonome Angriffe gefragt sein könnten. Israel hat schon fliegende autonome Waffen, die Harpy-Rakete.
"Das ist eine Rakete, die Radaranlagen finden und zerstören kann, ganz ohne menschliche Eingriffe. Sobald sie in der Luft ist, wartet sie darauf, Radiosignale zu empfangen, und sobald sie die erhält, greift sie das Radarsystem an, von dem die Signale kommen."
"Das ist eine Rakete, die Radaranlagen finden und zerstören kann, ganz ohne menschliche Eingriffe. Sobald sie in der Luft ist, wartet sie darauf, Radiosignale zu empfangen, und sobald sie die erhält, greift sie das Radarsystem an, von dem die Signale kommen."
Frank Slijper hat für die niederländische Non-Profit-Organisation PAX einen Bericht über den Trend zu autonomen Waffensystemen geschrieben.
"Man kann sich leicht vorstellen, dass man mit kleinen Änderungen an der Technik eine Waffe entwickeln kann, die nicht auf Radarsysteme reagiert, sondern auf Menschen mit bestimmten Eigenschaften. Wir glauben, dass wir nur wenige Schritte von der Situation entfernt sind, wo wir Waffen haben, die ohne bedeutsame menschliche Kontrolle einen Menschen angreifen können."
"Man kann sich leicht vorstellen, dass man mit kleinen Änderungen an der Technik eine Waffe entwickeln kann, die nicht auf Radarsysteme reagiert, sondern auf Menschen mit bestimmten Eigenschaften. Wir glauben, dass wir nur wenige Schritte von der Situation entfernt sind, wo wir Waffen haben, die ohne bedeutsame menschliche Kontrolle einen Menschen angreifen können."
Noch keine Entwicklung in Richtung vollautomatischer Systeme
Doch für einen anderen Friedensforscher liegt dieses Szenario nicht auf der Hand: Vincent Boulanin vom SIPRI, dem internationalen Friedensforschungsinstitut in Stockholm. Er glaubt nicht, dass vollautonome Waffensysteme zwingend der nächste Schritt sind.
"Es ist nicht besonders naheliegend. Vor allem, weil es gar keine Notwendigkeit dafür gibt. Oder auch wegen rechtlicher Bedenken, was Autonomie angeht. Die Technik mag nicht verlässlich genug sein, aber man will auch einfach die Kontrolle behalten. Das gilt auch für das Identifizieren und Angreifen von Zielen. Es ist ziemlich klar, dass in diesem Bereich noch keine Entwicklung in Richtung vollautonomer System stattfindet. Ich sage nicht, dass das nicht kommen wird, aber ich glaube nicht, dass es eine lineare Entwicklung ist."
"Es ist nicht besonders naheliegend. Vor allem, weil es gar keine Notwendigkeit dafür gibt. Oder auch wegen rechtlicher Bedenken, was Autonomie angeht. Die Technik mag nicht verlässlich genug sein, aber man will auch einfach die Kontrolle behalten. Das gilt auch für das Identifizieren und Angreifen von Zielen. Es ist ziemlich klar, dass in diesem Bereich noch keine Entwicklung in Richtung vollautonomer System stattfindet. Ich sage nicht, dass das nicht kommen wird, aber ich glaube nicht, dass es eine lineare Entwicklung ist."
Zunehmende Automatisierung schon jetzt problematisch
Vincent Boulanin hält es für einen Fehler, sich in der Diskussion auf vollautonome Systeme zu konzentrieren. Denn auch, wenn Menschen immer die letzte Entscheidung über den Einsatz einer Waffe fällen, wirft die zunehmende Automatisierung schon heute Fragen auf. Etwa, wie es Entscheidungen beeinflusst, dass der Soldat unter Umständen tausende Kilometer vom Geschehen entfernt ist. Es besteht die Gefahr, dass der Mensch das Gefühl dafür verliert, was in der jeweiligen Situation angemessen ist. Trotz aller Technik - oder gerade deswegen.
"Wenn man die ganze Informationsverarbeitung automatisiert und der Mensch nur noch von der Maschine mit Informationen gefüttert wird, ohne dass er noch die Komplexität der Algorithmen versteht, dann wird es problematisch. Dann könnte man sagen, der Mensch kann keine rationale Entscheidung mehr treffen, weil er nicht weiß, wie die Maschine zu ihrem Schluss gekommen ist."
Eine weitere Gefahr sehen beide, Vincent Boulanin und Frank Slijper darin, dass autonome Waffentechnik, ist sie erst einmal entwickelt, in die Hände von Terroristen geraten könnte.
"Wenn man die ganze Informationsverarbeitung automatisiert und der Mensch nur noch von der Maschine mit Informationen gefüttert wird, ohne dass er noch die Komplexität der Algorithmen versteht, dann wird es problematisch. Dann könnte man sagen, der Mensch kann keine rationale Entscheidung mehr treffen, weil er nicht weiß, wie die Maschine zu ihrem Schluss gekommen ist."
Eine weitere Gefahr sehen beide, Vincent Boulanin und Frank Slijper darin, dass autonome Waffentechnik, ist sie erst einmal entwickelt, in die Hände von Terroristen geraten könnte.