Archiv

Autonome Waffensysteme
"Es muss internationale Kontrollen geben"

Mit der Entwicklung autonomer Waffensysteme gingen große ethische Probleme einher, sagte der Informatiker Wolfram Burgard im Dlf. Deshalb seien viele Wissenschaftler auch so enorm dagegen. Nötig sei ein Entschluss der Vereinten Nationen, der dafür sorge, dass solche Waffensysteme nicht eingesetzt werden.

Wolfram Burgard im Gespräch mit Ulrich Blumenthal |
    Roboter auf einer Comic-Show in Polen.
    Wer ist eigentlich am Ende dafür verantwortlich, wenn ein autonomes Waffensystem einen Menschen tötet, fragt der Wissenschaftler Wolfram Burgard. (imago)
    Ulrich Blumenthal: 50 weltweit führende Forscher aus dem Gebiet der künstlichen Intelligenz haben Koreas führende technische Hochschule KAIST aufgefordert, ihre Zusammenarbeit mit der Firma Hanwha Systems bei der Entwicklung autonomer Waffen zu beenden. Zu den Unterzeichnern dieses Briefes gehört auch Professor Dr. Wolfram Burgard, Leiter der Arbeitsgruppe für Autonome Intelligente Systeme am Institut für Informatik der Albert-Ludwigs-Universität in Freiburg. Herr Professor Burgard, wie hat Koreas führende technische Hochschule KAIST denn auf Ihren offenen Brief reagiert?
    Wolfram Burgard: Ja, die haben erfreulicherweise sehr, sehr schnell reagiert und auch erklärt, dass sie keinesfalls an der Entwicklung von intelligenten Waffensystemen auf der Basis von künstlicher Intelligenz arbeiten wollen. Wir gehen davon aus, dass wir das als einen Erfolg verbuchen können und dass diese Arbeiten dort nicht so, wie ursprünglich geschildert, weitergeführt werden.
    Wer ist verantwortlich, wenn autonome Waffen Menschen töten
    Blumenthal: Wie konkret ist denn die Bedrohung der internationalen Sicherheit durch solche autonome Waffensysteme?
    Burgard: Das ist natürlich immer so eine zweischneidige Sache. Auf der einen Seite behauptet man natürlich, dass man durch bessere Waffensysteme die Sicherheit erhöht. Auf der anderen Seite handelt man sich natürlich auch da ethische Probleme ein, also beispielsweise der Verantwortung, wer ist eigentlich am Ende dafür verantwortlich, wenn ein solches autonomes Waffensystem einen Menschen tötet. Dann könnten sich andere eigentlich aus der Verantwortung stehlen, und dann würde die Frage aufkommen, ist der Besitzer haftbar dafür, ist der Hersteller haftbar und all solche Dinge. Es ist also ein sehr, sehr großes ethisches Problem, und ich glaube, wir sollten es einfach vermeiden, dass wir uns dieser Diskussion stellen müssen. Deswegen sind die Wissenschaftler auch so enorm dagegen.
    Forderung nach weltweitem Verbot
    Blumenthal: Es gibt ein fiktives Video über Minidrohnen, die mit wenigen Gramm Sprengstoff an Bord und auf der Basis eines Gesichtserkennungsprogramms automatisch selbstständig zielgerichtet Menschen töten. Ist das nur ein Zukunftsszenario oder ließe sich so etwas doch technisch realisieren?
    Burgard: Ja, wenn Sie mich jetzt so fragen, dann ist es wahrscheinlich so, dass man das - ich weiß nicht, ob mit so kleinen Drohnen, aber in irgendeiner Form sicherlich - realisieren könnte. Ich möchte da gar nicht so wirklich drüber nachdenken, aber wichtig ist eben aus meiner Sicht, dass solche Bestrebungen überhaupt unterbunden werden und dass man mal ganz klar macht, auch weltweit, dass man solche Waffensysteme nicht haben will.
    "Ein Entschluss der Vereinten Nationen muss her"
    Blumenthal: Das Wettrüsten bei autonomen Waffen, so könnte man sagen, hat begonnen. Wie kann man das einerseits kontrollieren und wie kann man andererseits etwas dagegen konkret unternehmen, weil das lässt sich ja sicherlich nur schwer kontrollieren und überwachen.
    Burgard: Es gibt natürlich zu allem dieses sogenannte Dual-Use-Argument, also dass im Prinzip alles doppelt eingesetzt werden kann. Dagegen tun kann man was als Wissenschaftler: Wenn wir also beispielsweise mitbekommen, dass die Institutionen an solchen Dingen arbeiten, dann versuchen wir eben halt massiv aufzutreten, um das mit unseren Mitteln zu reglementieren. Mittelfristig oder wenn möglich auch kurzfristig muss einfach ein Entschluss her der Vereinten Nationen, der dafür sorgt, dass solche Waffensysteme nicht eingesetzt werden. Und sehen kann man das bei diesen Waffensystemen natürlich an der Funktionalität. Man kann den Systemen schon die Autonomie ansehen, irgendwann wird man sie fliegen sehen, sag ich jetzt mal, oder fahren sehen, und dann wird man schon darauf zurückschließen können, dass das keine menschengesteuerten Systeme mehr sein können, sondern dass sie im Wesentlichen autonom vorgehen.
    Definitionen für die Rechtssprechung
    Blumenthal: Über 20 Mitgliedstaaten der UN haben sich für ein sofortiges und vorbeugendes Verbot von solchen automatischen Waffen eingesetzt. Wie muss und wie kann ein solcher Prozess konkret aussehen und ausgestaltet werden, was wären nächste Schritte, um dann zu einer weltweiten Lösung zu kommen?
    Burgard: Ich glaube, es muss internationale Kontrollen geben, wir müssen uns auch möglicherweise Regeln vorgeben, nach denen Waffensysteme beurteilt werden, ob sie eben halt autonom sind oder nicht. Und sobald es möglich ist, solche Dinge festzustellen - es gibt vage Definitionen von künstlicher Intelligenz oder Autonomie -, dann könnte man solche Definitionen beispielsweise anlegen, um so eine Messlatte dafür zu bekommen, wie autonome Waffensysteme sind und dann auch der Rechtsprechung oder der Ausführung die Möglichkeiten zu geben, das zu beurteilen.
    "Dual-Use-Aspekt ist das, was problematisch ist"
    Blumenthal: Sie haben den Begriff autonom eben verwendet, wir diskutieren in Deutschland, nicht nur in Deutschland, über autonomes Fahren. Lässt sich der Begriff Autonomie sowohl beim Auto als auch bei Waffensystemen eigentlich vergleichen, sodass wir auch gleiche Maßstäbe anlegen, ob wir diese Technik einsetzen wollen oder nicht?
    Burgard: Ja, das ist es im Wesentlichen, wissenschaftlich reden wir eigentlich über die gleichen Dinge hier. Es geht darum, dass wir - wir können das auch weitertreiben - einfach über Robotersysteme sprechen oder physikalische Systeme, die selbstständig handeln, also irgendwelche Software an Bord haben, die es ihnen erlaubt, mit ihren Sensoren die Welt wahrzunehmen und daraufhin eigenständig Aktionen durchzuführen. Das macht das autonom fahrende Auto genauso wie ein autonomes Waffensystem. Da sind Funktionen drin, die beide Systeme gleichzeitig können müssen, also sicher von A nach B zu kommen, Menschen zu erkennen, Hindernisse zu erkennen, um nicht mit Menschen oder anderen Hindernissen zu kollidieren, das ist eben enorm wichtig auf solchen autonomen Systemen. Und je zuverlässiger sie darin sind, desto einfacher oder zuverlässiger lassen sich solche Techniken natürlich auch in Waffensystemen einsetzen. Dieser Dual-Use-Aspekt ist da direkt sichtbar, und das ist das, was problematisch ist. Man kann jetzt deswegen natürlich nicht eine Wissenschaft verteufeln, die eigentlich versucht, das Leben im Straßenverkehr beispielsweise sicherer zu machen, nur deswegen, weil es Leute gibt, die auf dumme Gedanken kommen mit dem, was man eigentlich prinzipiell machen kann.
    Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Der Deutschlandfunk macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.