"Ich darf Leonie vorstellen. Das ist unser neuestes Fahrzeug an der TU Braunschweig für autonomes Fahren in der realen Städtischen Umgebung"
Isaac Asimov‘s erstes Roboter Gesetz: Ein Roboter darf keinem Menschen schaden. Leonie darf keinen Menschen überfahren.
Zweites Gesetz: Ein Roboter muss Menschen gehorchen, es sei denn, er verletzt dabei Gesetz 1. Leonie muss fahren, wohin der Mensch will, es sei denn, sie verletzt dabei Gesetz 1.
Drittes Gesetz: Ein Roboter muss seine Existenz schützen, es sei denn, er verletzt dabei Gesetz 1 oder Gesetz 2. Leonie muss für einen vollen Tank sorgen, es sei denn, sie verletzt dabei Gesetz 1 oder Gesetz 2.
"Es gibt große Fortschritte in Richtung Autonomie. Maschinen fällen Entscheidungen, ohne dass sie ein Mensch überwacht. Und wie ich das sehe, ist da ein bisschen ethisches Gespür besser, als gar keines. Und das ist heute der Normalfall."
"Menschen verhalten sich oft nicht ethisch. Würden wir einem Roboter Moral einprogrammieren, besteht die Chance, dass er Menschen beibringen könnte, sich besser zu verhalten."
"Im Bezug auf die ethische Frage ist es immer dann grenzwertig, wenn der Roboter anfängt, auch durch seine Arbeit den Mensch zu bevormunden. Jetzt aber mal die Medikamente genommen oder jetzt aber mal das Glas Wasser noch getrunken…"
"Man muss eigentlich eher heutzutage fragen, wo Software nicht eingreift. Wir müssen irgendwann mal Stopp sagen und sagen: Nein, das geht nicht. Wir können so etwas nicht machen. Und deswegen sollten wir es lieber lassen."
"Das ist ein Thema, was immer stärker werden wird und immer wichtiger werden wird. Zu sagen, nach welcher Ethik fährt das Fahrzeug überhaupt?"
Der Schlüsselschalter ist so ein bisschen der Hauptschalter. Der entscheidet, ob sich das Fahrzeug ganz normal manuell fährt oder ob ich den automatischen Modus aktivieren kann. Wenn ich den jetzt umlege, sagt Leonie auch gerne willkommen.
"Herzlich Willkommen, mein Name ist Leonie, ich begrüße Sie für die Fahrt auf dem Braunschweiger Stadtring. Funktionsbereit."
Leonie fährt ohne Fahrer. Mitten im Braunschweiger Stadtverkehr, zwischen anderen Autos, Fußgängern, Radfahrern dreht sie selbstständig ihre Runden. Oder fast selbstständig. Zurzeit wird Leonie von zwei Sicherheitsfahrern unterstützt. Der Beifahrer muss auf einem großen Touchscreen eintippen, ob die nächste Ampel nun gerade grün oder rot zeigt. Und hinter dem Lenkrad steuert Jörn Marten Wille Leonie in den Feierabendverkehr der Innenstadt.
Leonie: "Fahrzeug on the road"
Wille: "So jetzt befinden wir uns quasi auf der Straße. Ich drücke jetzt drei Sekunden hier diese OK-Taste"
Leonie: "Ansteuerung frei."
Wille: "Man sieht: kleiner Zucker und jetzt hat das Fahrzeug sich auf die Spur selbst aufgebracht und jetzt werde ich gleich auf das vorausfahrende Fahrzeug quasi einbremsen so bald es in Reichweite ist. Ich mach jetzt wirklich komplett gar nichts mehr. Also ich hab den Fuß natürlich in der Nähe des Bremspedals, falls doch mal irgendwas eintreten sollte, dass ich eingreifen muss. Ist bisher noch nie passiert, aber man weiß ja nie."
Leonie: "Ampel rot."
Wildermuth: "Das haben Sie jetzt aber eingedrückt."
Wille: "Das Fahrzeug weiß halt durch die Karte, wo sich die Ampel befindet. Aber die aktuelle Information muss man eben hier noch einfüttern. So, wir biegen jetzt quasi auf die ganz linke Abbiegespur ab. Und sobald die nächste Ampel auf Grün springt, wird das Auto hier ein vollautomatisches Wendemanöver vornehmen."
Leonie wird am Institut für Regelungstechnik an der Technischen Universität Braunschweig unter der Leitung von Professor Markus Maurer entwickelt. Früher hat er an Fahrerassistenzsystemen für die Automobilindustrie gearbeitet. Der Schritt vom Abstandsregeltempomaten zum vollautonomen Roboterauto erscheint ihm logisch. Schließlich gibt es viele Vorteile: ganz vorne steht die Sicherheit. Leonie wird nie müde, nie unachtsam. Dann gibt es eine steigende Nachfrage; durch ältere Menschen, die auch in hohen Jahren mobil bleiben wollen, aber auch durch die US-Armee, die schon 2020 ein Drittel ihrer Fahrzeuge unbemannt fahren lassen möchte, so Markus Maurer.
"Das heißt, hier gibt es einen großen Auftraggeber, der eben in dem Bereich, wo es gefährlich wird, auch das Fahren generell automatisieren möchte und das heißt, es gibt einen Technologietreiber. Und dann gibt es jede Menge Situationen, die ich persönlich einfach nervig finde. Wenn ich im Stau stehe, da bin ich froh, wenn ich nicht mehr selber fahren muss und wenn ich diesen nervigen Prozess auch automatisieren kann. Und das ist eben auch der Komfortaspekt."
Autonome Autos, Flugzeuge, die mit Autopilot starten und landen, fahrerlose Züge sind aber erst der Anfang. Die ersten Pflegeroboter und vollautomatischen Waffensysteme werden erprobt. Dann gibt es das weite Feld der automatischen Software, etwa im Bankbereich, in der Überwachung oder bei der Flugsicherung. Die Umsetzung all dieser Projekte gilt vor allem als technisches Problem. Ethische Herausforderungen werden ausgeblendet. Dabei findet der Philosoph Michael Decker vom Forschungszentrum Karlsruhe schon bei heute weit verbreiteten Fahrerassistenten eine versteckte moralische Dimension.
"Der Bremsassistent unterstützt den Fahrer in dem, was er vorhat. Er bremst nämlich optimal. Die Antischlupf-Regelung macht genau genommen das Gegenteil von dem, was der Fahrer möchte. Der gibt nämlich Gas und das Auto bremst, damit die Reifen nicht durchdrehen. Das heißt, im zweiten Fall haben Sie einen Fall in dem der Fahrer vom System irgendwie überstimmt wird. Also wenn der Mensch in dem Zusammenspiel in irgendeiner Form mit dem System instrumentalisiert wird oder in die niedrigere Hierarchiestufe kommt, dann ist das ein Ort, wo wir ganz genau hinschauen wollen als Ethiker."
Da ist sich Michael Decker einig mit seinem Philosophen-Kollegen Colin Allen von der Harvard Universität. Zusammen mit dem Informatiker Wendell Wallach hat er dem Thema ein eigenes Buch gewidmet: "Moral Machines: Teaching Robots Right from Wrong":
"Ich denke, wir erlauben es Maschinen mehr und mehr in der Welt zu handeln, ohne dass sie direkt von Menschen gesteuert werden. Es gibt für sie immer mehr Möglichkeiten und damit werden immer mehr Aspekte relevant. Und deshalb denken wir, dass Maschinen so etwas wie ein Gefühl für Ethik bekommen müssen, dafür, was ihre Entscheidungen gut oder schlecht macht."
Wildermuth: "Hier sind ja am Rand auch Wagen geparkt. Da könnte es ja die klassische Situation geben: Kind spielt, Ball kommt auf die Straße. Würde das Fahrzeug so etwas erkennen?"
Wille: "Genauso wenig, wie wir sehen können, ob hinter einem Auto etwas ist, kann der Sensor auch nicht durch ein Auto durchgucken. Da ist der Sensor dem Menschen sehr ähnlich. Aber wenn es dann etwas sieht, dann reagiert es wesentlich schneller meistens als der Mensch."
Wildermuth: "Hatten Sie selber schon mal eine Situation, wo Leonie schneller reagiert hat, als Sie?"
Wille: "Ja. Wir hatten kürzlich eine Situation, wo uns zum Beispiel ein Fahrradfahrer alle Spuren vor uns kreuzen musste und das wirklich auch relativ knapp. Das Fahrzeug hat dann tatsächlich schneller reagiert, als der Sicherheitsfahrer, der da saß. Und man war dann tatsächlich ein bisschen überrascht."
Automatische Systeme handeln in vielen Bereichen selbstständig. Sie sind meist sicherer, sie sind effizienter, aber sie sind nicht unfehlbar, haben sogar schon tragische Unfälle verursacht. 1996 stürzt in Puerto Plata ein Flugzeug der Birgenair kurz nach dem Start ab. Das eigentliche Problem war banal. Ein verstopftes Messgerät für die Fluggeschwindigkeit. Der Autopilot interpretierte die falschen Werte aber als viel zu hohes Tempo und stellte das Flugzeug zu steil an. Die Folge: die Maschine stürzte ab, wie ein Stein.
"Also der Fehler war eigentlich weder ein Fehler der Automatik noch des Piloten allein, sondern ein Fehler der Interaktion von Pilot und Automatik. Er hätte es retten können. Er hätte sozusagen den Fehler der Automatik overrulen können. Er hat aber nicht erkannt, dass er es hätte tun müssen. Und solche Fälle gibt es immer wieder, das sozusagen durch Fehler der Automatik Situationen entstehen, deren Kritikalität von dem Menschen nicht mehr erkannt werden kann."
Harald Kohlrep ist Psychologe. Bei der Firma Human Factors Consult versucht er die Zusammenarbeit von Mensch und Maschine so reibungslos wie möglich zu gestalten. Nur wenn klar ist, wer für was zuständig ist, kann das Nutzer-Assistent-System als Ganzes funktionieren. Nur dann können die Menschen Vertrauen in die autonome Technik aufbauen. Bei ABS und Abstandsregeltempomaten ist das schon gelungen. Wie die ersten Wagen mit Notbremssystem für die Tempo-30-Zone angenommen werden, muss sich noch zeigen. Als nächstes werden dann wohl autonome Systeme eingeführt für Situationen, in denen der Mensch am Fahren sowieso keinen Spaß hat. Etwa für das langsamen Voranschleichen im Stau. Das kann ein Plus an Sicherheit schaffen – aber immer nur im Durchschnitt. Ein Notbremssystem, dass viele Menschenleben retten kann, verursacht im Einzelfall vielleicht einmal selbst einen schweren Auffahrunfall. Markus Maurer:
"Da muss man eigentlich auch einen anderen Dialog mit der Gesellschaft führen, als die Automobilhersteller heute führen. Autos werden heute verkauft als Lifestyle-Produkte. Insofern tun sich die Automobilhersteller ganz schwer mit dem Satz: Zu Risiken und Nebenwirkungen lesen Sie die Packungsbeilage. Wenn wir aber dahin gehen, dass die Fahrzeuge immer mehr Verantwortung übernehmen, auch im Notfall über Leben und Tod, dann haben wir tatsächlich noch eine ethische Debatte vor uns. Die haben wir noch nicht geführt."
Wer haftet für Fehler eines automatischen Systems? Der Programmierer? Der Hersteller? Der Besitzer? Der Fahrer? Diese Grauzone der Verantwortung ist nach Ansicht von Markus Maurer mit ein Grund dafür, dass die Automobilindustrie den Käufern längst nicht alles an automatischen Systemen anbietet, was in den Versuchswagen schon gut funktioniert. Letztlich, so Harald Kohlrep, kommt es darauf an, eine möglichst klare Trennlinie der Zuständigkeit und damit der Verantwortung zu finden, zwischen autonomem System und Mensch.
"Wenn er keine Handlungsspielräume mehr hat, dann sollte ich die Systeme vollautomatisch machen. Weil dann auch klar ist, wer dafür wiederum die Verantwortung tragen muss, nämlich der Betreiber und der Entwickler des Systems. Und wenn ich den Menschen brauche im System, dann deswegen, weil er für irgendeinen Teilbereich Verantwortung übernehmen soll. Und das bedeutet, ich muss ihn auch in die Lage versetzen, mindestens Handlungsspielräume zu haben und Kontrolle zu behalten für die Teilbereiche, für die er verantwortlich sein soll. Und dieses Zusammenspiel hinzukriegen, das ist das Entscheidende, und dann wird es gut."
Die Forscher haben Zeit, ein Ethikmodul zu entwickeln. Das könnte dann auch in vielen anderen Gebieten zum Einsatz kommen. In der Pflege zum Beispiel. Sie gilt als der Wachstumsmarkt für die Robotik. In den Industrienationen wird die Bevölkerung immer älter, parallel sinkt die Zahl der Ärzte und Schwestern. Der Care-O-Bot aus Karlsruhe verspricht Entlastung: als elektronischer Butler kann er auf einer Station herumfahren und den Patienten selbstständig Wasser anbieten. Andere Pflegeroboter sollen die Patienten aus dem Bett heben oder zuhause die Spülmaschine ausräumen und den Boden putzen. Klingt eigentlich gut. Aber gerade in der Pflege haben ganz alltägliche Handlungen eine moralische Dimension.
Zweites Gesetz: Ein Roboter muss Menschen gehorchen.
Care-O-Bot muss dem Patienten gehorchen. Konflikt: Der Patient will sein Wasser nicht nehmen.
"Das sind genau diese Handlungszusammenhänge in der Pflege, die man sich genau überlegen muss. Das eine Argument ist immer: Na gut der bringt immer Wasser. Soll niemand Durst leiden. Aber das eben mit Pflegen auch eine Art Anweisung an den Patienten erfolgt, ob man das von einem Robotersystem quasi ähnlich entgegennehmen möchte, ist schwer zu beurteilen","
sagt Michael Decker. Die autonomen Systeme von heute sind in der Regel unsichtbar. Keine Roboter oder Fahrzeuge, sondern bloßer Computercode. Software, die Entscheidungen trifft.
""Das Schlimme ist, es ist nicht immer offensichtlich, dass es tatsächlich Software ist, die Ihr Leben beeinflusst."
Debora Weber-Wulf ist Professorin für Medieninformatik an der Hochschule für Technik und Wirtschaft Berlin und Mitglied der Arbeitsgruppe Ethik und Informatik der Deutschen Gesellschaft für Informatik.
"Also, ich hab mich auch gewundert, wo ich jetzt Weihnachtseinkäufe gemacht habe. Also, ich habe für mehr als 100 Euro Essen auch eingekauft, und auf einmal musste ich die PIN eingeben in einem Laden wo ich bisher nur mit Unterschrift bezahlt haben. Und an der Stelle hat die Software entschieden: 'Hm, das könnte ein Risiko sein, wir wollen lieber mal vorsichtig sein.'"
Für die Geschäfte ist das PIN Verfahren mit höheren Kosten verbunden, dafür haben sie die Sicherheit, den Kaufpreis auch tatsächlich zu erhalten. Auch Visa, American Express und Mastercard lassen Software die generelle Kreditwürdigkeit ihrer Kunden und das finanzielle Risiko jedes einzelnen Einkaufs prüfen. Menschen werden erst eingeschaltet, wenn es zu Protesten kommt. Und dann heißt es oft:
"Tut mir leid, der Computer gibt Ihnen keinen Kredit. Und dann ist es nicht: Ich gebe Dir keinen Kredit. Sondern wir haben jetzt ein Medium dazwischen."
Die Verantwortung löst sich auf, wird von der Bank über den Programmierer in das automatische System übertragen. An der Börse gibt es ähnliche Entwicklungen. Computerbanker spekulieren selbstständig. Das Algorithmic Trading macht in zwischen fast die Hälfte der Umsätze mit US-Aktien aus, in Europa liegt der Wert bei knapp einem Drittel. Der Vorteil der Programme: sie sind schnell und münzen selbst kleinste Kursschwankungen in Gewinn um. Ihr Nachteil: sie sind wenig flexibel. Am 6. Mai 2010 brachen die Kurse an der New Yorker Börse plötzlich um 1000 Punkte ein. Binnen 20 Minuten wurden 350 Millionen Dollar vernichtet. Die Kurse erholten sich im Tagesverlauf, aber es blieb ein großer Verlust. Auslöser des Minicrashs war ein menschlicher Fehler, der durch die autonomen Computerhändler in einer Kettenreaktion dramatisch verstärkt wurde. Weber-Wulff:
"Das Problem ist, wenn jeder so einen Algorithmus hat. Der Markt reagiert sehr instabil und dann kommen wir in Situationen hinein, wo wir uns dadurch ruinieren können, ohne dass irgendein Mensch darüber nachgedacht hat. Und das finde ich höchst problematisch."
Nicht nur die Banker, auch die Polizei setzt inzwischen auf eigenständige Software-Agenten, Softbots genannt. Forschungsprojekte wie "Samurai", "Mind‘s Eye" oder "Indect" arbeiten an autonomen Programmen, die selbstständig Überwachungsvideos auswerten. Gleicht ein Gesicht einem Fahndungsfoto oder verhält sich ein Mensch anders, als erwartet, schlagen sie Alarm. Weber-Wulff:
"Wo kommen die Regeln her, was ist verdächtig? Wie sollen wir denn einer Maschine beibringen können, wann eine Situation verdächtig ist und wann es nicht. Oft gibt es tatsächlich einfache Erklärungen für diese Art von Verhalten."
Genau wie Debora Weber-Wulff fürchten Datenschützer, dass hier ein automatischer Bevölkerungsscanner entstehen soll, der jedermann jederzeit im Blick hat. Noch sollen "Samurai", "Indect" und "Mind’s Eye" den echten Polizisten nur das ermüdende Sichten des Videomaterials abnehmen. Es wäre allerdings aus der Logik dieser Systeme heraus nur konsequent, ihnen auch Handlungsoptionen zu ermöglichen. Vielleicht Ampeln auf rot zu schalten, damit ein Verdächtiger nicht mit dem Auto fliehen kann. Spätestens dann wäre es wohl an der Zeit, nicht nur die Forschung von einer Ethikkommission begleiten zu lassen, sondern die Systeme selbst um ein Ethikmodul zu erweitern,
Jörn Marten Wille: "Ja, man sieht hier, was für schöne Situationen. Da habe ich lieber mal eingegriffen. Hier nimmt keiner auf uns Rücksicht. Im Gegenteil, wir werden häufiger geschnitten manchmal habe ich das Gefühl, als wenn ich im Privatwagen fahre. Aber das gehört halt dazu."
Wildermuth: "Das kann man ja unterschiedlich angehen. Da gibt es die aggressiven Fahrer, die nie jemand rein lassen, dann gibt es die ganz freundlichen, die immer schon im weiten Vorfeld abbremsen. Wie ist denn da Leonie eingestellt?"
Wille: "Das kommt darauf an: Wie viel Abstand halte ich, wie schnell reagiere ich darauf, da sind alles Parameter, da gibt es beliebig viele Stellschrauben, die man einstellen kann. Und wir haben das Fahrzeug so ausgelegt, dass es sich eher defensiv verhält aber natürlich trotzdem mitschwimmen kann."
"Ist das Problem nicht längst gelöst? Hat nicht Isaac Asimov ethische Gesetzte für Roboter formuliert? Erstens: Schade keinem Menschen. Zweitens: Gehorche Menschen. Und drittens: Kümmere dich um dich selbst. Ist das nicht alles was wir wissen müssen?"
So beschreibt der Philosoph Colin Allen die typische Reaktion eines Ingenieurs auf die Frage nach einem Ethikmodul für Roboter. Aber Asimovs Geschichten drehen sich eben genau darum, dass die drei einfachen Gesetze zu Widersprüchen und allem möglichen Katastrophen führen. Er hat sie formuliert, um auf Probleme hinzuweisen, nicht um sie zu lösen. Allen:
"Wenn man den Ingenieuren klar macht, dass es nicht so einfach ist, dann stellen sich einige der Herausforderung und andere sagen, das ist doch noch viel zu früh."
Einer, der sich der Herausforderung stellt, ist Markus Maurer von der TU-Braunschweig. Bei der Programmierung von Leonie hat er die Straßenverkehrsordnung als ethische Richtschnur genutzt. Aber er ist sich sicher: das wird nicht reichen, wenn die Autoindustrie immer komplexere Assistenzsysteme anbietet.
"Wir sind im automatisierten Fahrbetrieb und es wird auf jeden Fall zum Unfall kommen. Das automatische Fahrzeug ist jetzt vor die Frage gestellt: stoße ich jetzt mit dem LKW zusammen, oder überfahre ich ein Kind? Und das ist etwas, wir sprechen es auch in der Vorlesung an, diskutieren es mit den Studenten, und da merken wir, da sind die Ingenieure heute eigentlich noch nicht drauf vorbereitet. Und das ist ein Thema, was immer stärker werden wird und immer wichtiger werden wird. Zu sagen, nach welcher Ethik fährt das Fahrzeug überhaupt?"
Noch ist es nicht so weit, aber Markus Maurer hat sich schon einmal eine Ethikerin in sein Team geholt, um philosophischen Sachverstand an der Hand zu haben, wenn sich künftig ethische Fragen in seiner Forschung an autonomen Fahrzeugen stellen.
"Wie kann man eine Ethik in der Maschine programmieren? Ich meine, da gibt es nur Einsen und Nullen."
Der Informatiker Michael Anderson und seine Frau, die Philosophin Susan Anderson wollen an den Universität von Connecticut so etwas wie Moral in die Computersysteme implementieren.
"Zuerst müssen wir die ethischen Grundsätze finden. Da füttern wir den Computer mit moralischen Problemen und den Lösungen der Ethiker. Nach und nach leitet er daraus die Prinzipien hinter den korrekten Antworten ab."
Wann soll ein Arzt einem Patienten ein Medikament auch gegen dessen Willen verabreichen? Diese Frage haben die Andersons Ethikern in vielen Varianten vorgelegt. Mal waren die Pillen lebensnotwendig, mal nur vorbeugend, mal mit, mal ohne Nebenwirkungen. Mal war der Patient sehr klar in seiner Ablehnung, mal war er nur abgelenkt. Aus den Antworten der Ethiker leitete die Lernsoftware Regeln ab, die jetzt einen kleinen menschenähnlichen Roboter vom Typ Nao steuern. Der kann mit einer Pillendose über den Tisch zu einem Patienten laufen.
Nao: "It is time you take your medication."
Anderson: "No."
Nao: "OK. I will remind you later."
Nao akzeptiert die Ablehnung. Wann er wieder nachfragt, hängt zum Beispiel davon ab, wie nützlich das Medikament ist. Weigert sich der Patient dauerhaft, es einzunehmen, geht Nao davon aus, dass der Mensch die Situation nicht richtig einschätzt und der Roboter informiert den Arzt.
"I’am going to contact the doctor."
Die Andersons sprechen von Nao als dem ersten ethischen Roboter. Das ist wohl noch übertrieben, aber der Lern-Ansatz klingt vielversprechend. Doch es gibt ein Problem: die Informatiker können hinterher nicht vollständig überprüfen, welche ethischen Regeln das System eigentlich aus den Beispielen abgeleitet hat, ob sie wirklich menschlichen Moralvorstellungen entsprechen. Außerdem funktioniert Maschinenlernen am besten auf eng begrenzten Erfahrungsbereichen. Das Prinzip müsste für autonome Systeme mit einem breiten Einsatzgebiet radikal erweitert werden. Einige Forscher träumen davon, einen Computer wie ein Kleinkind lernen zu lassen. Das würde vielleicht Jahre dauern, aber anders als bei Kindern könnten die gewonnenen Erfahrungen einfach in spätere Systeme hineinkopiert werden. Doch auch hier ist der Philosoph Michael Decker skeptisch.
"Dass es attraktiv wäre, so etwas zu probieren, und wenn wir dann wieder die Analogie verwenden, wie kommen eigentlich Menschen zu ihren moralischen Entscheidungen und dann sagt man: Na gut, die werden sozialisiert, das kriegen sie von den Eltern beigebracht und in der Schule und so weiter, wenn also Robotersysteme ähnlich lernen würden, dann könnte man auch die steile These vertreten, das passiert ähnlich wie bei einem Menschen dann auch mit allen Schwächen und Stärken."
Menschen sind aus Sicht der Moralphilosophie ganz sicher nicht perfekt. Lernende Maschinen wären das wohl auch nicht. Es ist aber völlig offen, ob man Maschinen dieselben Fehler wie Menschen verzeihen würde. Der Top-Down-Ansatz versucht deshalb eine Ethik fest ins Elektronengehirn einzuschreiben. Am weitesten ist hier Ronald Arkin von der Georgia Tech University. Im Auftrag der US-Armee programmiert er die Genfer Konvention. Das hat den großen Vorteil, klare Regeln aufstellen zu können, zum Beispiel heilige Stätten im Kampf möglichst zu schonen. Das elektronische Ethik Modul von Ronald Arkin projiziert verschiedene Handlungsmöglichkeiten einer bewaffneten Drohne in die Zukunft. Weiterfliegen, Panzer vor Gebäude beschießen, Panzer im freien Feld beschießen. Dann werden die verschiedenen Optionen nach ethischen Kriterien gewichtet. Weiterfliegen neutral. Panzer zerstören positiv, Panzer vor Gebäude. Gebäude prüfen. Laut Datenbank eine Moschee, also negativ. Ronald Arkin hat sein Programm an realen Daten von Drohneneinsätzen in Afghanistan erprobt. Unterm Strich entschied es meist so wie der menschliche Operator. Für Ronald Arkin ein erster Beleg, dass ein Ethikmodul grundsätzlich möglich ist. Debora Weber-Wulff:
"Moral und das Handeln in einer Situation lässt sich nicht auf eine Abfolge von Normen, von Regeln abbilden. Es gibt sehr viele verschiedene Vorstellungen davon. Die Philosophen haben viel Spaß daran, an diesen Sachen nachzudenken. Aber wenn die sich schon nicht einig sind, wie sollen wir das in Code überführen können? Das geht einfach nicht Das ist diese Wunschdenken. Die Welt ist nicht so einfach, die Welt ist unglaublich komplex und bedarf ein Austarieren, ein Aushandeln mit Menschen untereinander darüber, wie das richtige Verhalten ist."
Dieser Austausch ist für Debora Weber-Wulff das zentrale Element ethischen Handelns in einer pluralistischen Gesellschaft. In Robotern aber wäre eine Moral festgeschrieben. Das ist ein beliebtes Argument gegen jede Roboterethik: an welchen Vorstellungen soll sie sich orientieren? An religiösen Geboten und wenn ja an welchen? Am größten Glück der größten Zahl, aber wer misst das? Oder an letzten Prinzipien, aber wer setzt die? Colin Allen:
"Ich glaube, dass die Philosophen solche Unterschiede zu sehr betonen. Wenn ich mich hier umdrehen und den Studiotechniker erschießen würde, wären Kantianer und Utilitaristen wohl einer Meinung: mein Handeln wäre unethisch. Es ist wichtig, die schwierigen Fälle in Philosophieseminaren zu diskutieren. Aber das sind nicht die Diskussionen, die für das alltägliche Handeln von Menschen oder Maschinen wichtig sind."
Einfache Regeln. Auf die hofft Markus Maurer, denn er ist davon überzeugt, dass die Konstrukteure von Fahrerassistenzsystemen unweigerlich vor moralischen Fragen stehen werden.
"Ob sie es wollen oder nicht, wir haben noch einmal die Dilemmasituation: fahre ich über das Kind oder stoße ich mit einem anderen Fahrzeug zusammen. Wir Techniker sind letztendlich dann die, die es umsetzen, und die das Sittengesetz brauchen, um sich orientieren zu können."
Anders als beispielsweise Debora Weber-Wulf kann sich Markus Maurer auch gut vorstellen, dass sich ethisches Verhalten tatsächlich in Robotern, autonomen Softbots oder automatischen Fahrzeugen programmieren lässt.
"Ich meine Gesetze, auch ethische Gesetze sind dann gut formuliert letztendlich, wenn sie umsetzbar sind. Das ist jetzt der Techniker, der da spricht. Ich bin da ganz optimistisch, dass wenn wir uns da geeinigt haben, was ist denn richtig und falsch in Situationen, dass wir das auch Umsetzen können. Das Problem, was wir in jedem Fall noch die nächsten fünf bis zehn Jahre haben ist, dass wir wahrnehmungsseitig, also von der Erfassungsseite die Voraussetzung schaffen müssen, um überhaupt dann unsren ethischen Ansprüche auch etablieren und umsetzen zu können."
Jörn Marten Wille: "Zur Zeit ist das immer noch ein laufendes Projekt. Dass das Fahrzeug in allen Situationen sicherer fährt, als der Mensch, das haben wir natürlich noch nicht realisiert, das kommt so erst mit den Jahren. Aber natürlich reagiert das Fahrzeug in vielen Situationen wesentlich schneller, reproduzierbar, es schläft nie ein, das sind halt alles so Vorteile, die die Technik so bietet. Und das kann der Mensch nicht in allen Situationen abdecken. Was der Mensch natürlich als Vorteil hat: Wir haben über Jahre natürlich unheimlich viel gelernt, vor allem Intuition haben wir sehr viel. Und wir können gewisse Dinge einfach besser vorhersehen. Das ist sicher eine große Aufgabe, die das Fahrzeug noch lernen muss."
Leonie: "Vielen Dank. Ich hoffe, Sie hatten eine Angenehme Fahrt. Bis zum nächsten Mal."
Isaac Asimov‘s erstes Roboter Gesetz: Ein Roboter darf keinem Menschen schaden. Leonie darf keinen Menschen überfahren.
Zweites Gesetz: Ein Roboter muss Menschen gehorchen, es sei denn, er verletzt dabei Gesetz 1. Leonie muss fahren, wohin der Mensch will, es sei denn, sie verletzt dabei Gesetz 1.
Drittes Gesetz: Ein Roboter muss seine Existenz schützen, es sei denn, er verletzt dabei Gesetz 1 oder Gesetz 2. Leonie muss für einen vollen Tank sorgen, es sei denn, sie verletzt dabei Gesetz 1 oder Gesetz 2.
"Es gibt große Fortschritte in Richtung Autonomie. Maschinen fällen Entscheidungen, ohne dass sie ein Mensch überwacht. Und wie ich das sehe, ist da ein bisschen ethisches Gespür besser, als gar keines. Und das ist heute der Normalfall."
"Menschen verhalten sich oft nicht ethisch. Würden wir einem Roboter Moral einprogrammieren, besteht die Chance, dass er Menschen beibringen könnte, sich besser zu verhalten."
"Im Bezug auf die ethische Frage ist es immer dann grenzwertig, wenn der Roboter anfängt, auch durch seine Arbeit den Mensch zu bevormunden. Jetzt aber mal die Medikamente genommen oder jetzt aber mal das Glas Wasser noch getrunken…"
"Man muss eigentlich eher heutzutage fragen, wo Software nicht eingreift. Wir müssen irgendwann mal Stopp sagen und sagen: Nein, das geht nicht. Wir können so etwas nicht machen. Und deswegen sollten wir es lieber lassen."
"Das ist ein Thema, was immer stärker werden wird und immer wichtiger werden wird. Zu sagen, nach welcher Ethik fährt das Fahrzeug überhaupt?"
Der Schlüsselschalter ist so ein bisschen der Hauptschalter. Der entscheidet, ob sich das Fahrzeug ganz normal manuell fährt oder ob ich den automatischen Modus aktivieren kann. Wenn ich den jetzt umlege, sagt Leonie auch gerne willkommen.
"Herzlich Willkommen, mein Name ist Leonie, ich begrüße Sie für die Fahrt auf dem Braunschweiger Stadtring. Funktionsbereit."
Leonie fährt ohne Fahrer. Mitten im Braunschweiger Stadtverkehr, zwischen anderen Autos, Fußgängern, Radfahrern dreht sie selbstständig ihre Runden. Oder fast selbstständig. Zurzeit wird Leonie von zwei Sicherheitsfahrern unterstützt. Der Beifahrer muss auf einem großen Touchscreen eintippen, ob die nächste Ampel nun gerade grün oder rot zeigt. Und hinter dem Lenkrad steuert Jörn Marten Wille Leonie in den Feierabendverkehr der Innenstadt.
Leonie: "Fahrzeug on the road"
Wille: "So jetzt befinden wir uns quasi auf der Straße. Ich drücke jetzt drei Sekunden hier diese OK-Taste"
Leonie: "Ansteuerung frei."
Wille: "Man sieht: kleiner Zucker und jetzt hat das Fahrzeug sich auf die Spur selbst aufgebracht und jetzt werde ich gleich auf das vorausfahrende Fahrzeug quasi einbremsen so bald es in Reichweite ist. Ich mach jetzt wirklich komplett gar nichts mehr. Also ich hab den Fuß natürlich in der Nähe des Bremspedals, falls doch mal irgendwas eintreten sollte, dass ich eingreifen muss. Ist bisher noch nie passiert, aber man weiß ja nie."
Leonie: "Ampel rot."
Wildermuth: "Das haben Sie jetzt aber eingedrückt."
Wille: "Das Fahrzeug weiß halt durch die Karte, wo sich die Ampel befindet. Aber die aktuelle Information muss man eben hier noch einfüttern. So, wir biegen jetzt quasi auf die ganz linke Abbiegespur ab. Und sobald die nächste Ampel auf Grün springt, wird das Auto hier ein vollautomatisches Wendemanöver vornehmen."
Leonie wird am Institut für Regelungstechnik an der Technischen Universität Braunschweig unter der Leitung von Professor Markus Maurer entwickelt. Früher hat er an Fahrerassistenzsystemen für die Automobilindustrie gearbeitet. Der Schritt vom Abstandsregeltempomaten zum vollautonomen Roboterauto erscheint ihm logisch. Schließlich gibt es viele Vorteile: ganz vorne steht die Sicherheit. Leonie wird nie müde, nie unachtsam. Dann gibt es eine steigende Nachfrage; durch ältere Menschen, die auch in hohen Jahren mobil bleiben wollen, aber auch durch die US-Armee, die schon 2020 ein Drittel ihrer Fahrzeuge unbemannt fahren lassen möchte, so Markus Maurer.
"Das heißt, hier gibt es einen großen Auftraggeber, der eben in dem Bereich, wo es gefährlich wird, auch das Fahren generell automatisieren möchte und das heißt, es gibt einen Technologietreiber. Und dann gibt es jede Menge Situationen, die ich persönlich einfach nervig finde. Wenn ich im Stau stehe, da bin ich froh, wenn ich nicht mehr selber fahren muss und wenn ich diesen nervigen Prozess auch automatisieren kann. Und das ist eben auch der Komfortaspekt."
Autonome Autos, Flugzeuge, die mit Autopilot starten und landen, fahrerlose Züge sind aber erst der Anfang. Die ersten Pflegeroboter und vollautomatischen Waffensysteme werden erprobt. Dann gibt es das weite Feld der automatischen Software, etwa im Bankbereich, in der Überwachung oder bei der Flugsicherung. Die Umsetzung all dieser Projekte gilt vor allem als technisches Problem. Ethische Herausforderungen werden ausgeblendet. Dabei findet der Philosoph Michael Decker vom Forschungszentrum Karlsruhe schon bei heute weit verbreiteten Fahrerassistenten eine versteckte moralische Dimension.
"Der Bremsassistent unterstützt den Fahrer in dem, was er vorhat. Er bremst nämlich optimal. Die Antischlupf-Regelung macht genau genommen das Gegenteil von dem, was der Fahrer möchte. Der gibt nämlich Gas und das Auto bremst, damit die Reifen nicht durchdrehen. Das heißt, im zweiten Fall haben Sie einen Fall in dem der Fahrer vom System irgendwie überstimmt wird. Also wenn der Mensch in dem Zusammenspiel in irgendeiner Form mit dem System instrumentalisiert wird oder in die niedrigere Hierarchiestufe kommt, dann ist das ein Ort, wo wir ganz genau hinschauen wollen als Ethiker."
Da ist sich Michael Decker einig mit seinem Philosophen-Kollegen Colin Allen von der Harvard Universität. Zusammen mit dem Informatiker Wendell Wallach hat er dem Thema ein eigenes Buch gewidmet: "Moral Machines: Teaching Robots Right from Wrong":
"Ich denke, wir erlauben es Maschinen mehr und mehr in der Welt zu handeln, ohne dass sie direkt von Menschen gesteuert werden. Es gibt für sie immer mehr Möglichkeiten und damit werden immer mehr Aspekte relevant. Und deshalb denken wir, dass Maschinen so etwas wie ein Gefühl für Ethik bekommen müssen, dafür, was ihre Entscheidungen gut oder schlecht macht."
Wildermuth: "Hier sind ja am Rand auch Wagen geparkt. Da könnte es ja die klassische Situation geben: Kind spielt, Ball kommt auf die Straße. Würde das Fahrzeug so etwas erkennen?"
Wille: "Genauso wenig, wie wir sehen können, ob hinter einem Auto etwas ist, kann der Sensor auch nicht durch ein Auto durchgucken. Da ist der Sensor dem Menschen sehr ähnlich. Aber wenn es dann etwas sieht, dann reagiert es wesentlich schneller meistens als der Mensch."
Wildermuth: "Hatten Sie selber schon mal eine Situation, wo Leonie schneller reagiert hat, als Sie?"
Wille: "Ja. Wir hatten kürzlich eine Situation, wo uns zum Beispiel ein Fahrradfahrer alle Spuren vor uns kreuzen musste und das wirklich auch relativ knapp. Das Fahrzeug hat dann tatsächlich schneller reagiert, als der Sicherheitsfahrer, der da saß. Und man war dann tatsächlich ein bisschen überrascht."
Automatische Systeme handeln in vielen Bereichen selbstständig. Sie sind meist sicherer, sie sind effizienter, aber sie sind nicht unfehlbar, haben sogar schon tragische Unfälle verursacht. 1996 stürzt in Puerto Plata ein Flugzeug der Birgenair kurz nach dem Start ab. Das eigentliche Problem war banal. Ein verstopftes Messgerät für die Fluggeschwindigkeit. Der Autopilot interpretierte die falschen Werte aber als viel zu hohes Tempo und stellte das Flugzeug zu steil an. Die Folge: die Maschine stürzte ab, wie ein Stein.
"Also der Fehler war eigentlich weder ein Fehler der Automatik noch des Piloten allein, sondern ein Fehler der Interaktion von Pilot und Automatik. Er hätte es retten können. Er hätte sozusagen den Fehler der Automatik overrulen können. Er hat aber nicht erkannt, dass er es hätte tun müssen. Und solche Fälle gibt es immer wieder, das sozusagen durch Fehler der Automatik Situationen entstehen, deren Kritikalität von dem Menschen nicht mehr erkannt werden kann."
Harald Kohlrep ist Psychologe. Bei der Firma Human Factors Consult versucht er die Zusammenarbeit von Mensch und Maschine so reibungslos wie möglich zu gestalten. Nur wenn klar ist, wer für was zuständig ist, kann das Nutzer-Assistent-System als Ganzes funktionieren. Nur dann können die Menschen Vertrauen in die autonome Technik aufbauen. Bei ABS und Abstandsregeltempomaten ist das schon gelungen. Wie die ersten Wagen mit Notbremssystem für die Tempo-30-Zone angenommen werden, muss sich noch zeigen. Als nächstes werden dann wohl autonome Systeme eingeführt für Situationen, in denen der Mensch am Fahren sowieso keinen Spaß hat. Etwa für das langsamen Voranschleichen im Stau. Das kann ein Plus an Sicherheit schaffen – aber immer nur im Durchschnitt. Ein Notbremssystem, dass viele Menschenleben retten kann, verursacht im Einzelfall vielleicht einmal selbst einen schweren Auffahrunfall. Markus Maurer:
"Da muss man eigentlich auch einen anderen Dialog mit der Gesellschaft führen, als die Automobilhersteller heute führen. Autos werden heute verkauft als Lifestyle-Produkte. Insofern tun sich die Automobilhersteller ganz schwer mit dem Satz: Zu Risiken und Nebenwirkungen lesen Sie die Packungsbeilage. Wenn wir aber dahin gehen, dass die Fahrzeuge immer mehr Verantwortung übernehmen, auch im Notfall über Leben und Tod, dann haben wir tatsächlich noch eine ethische Debatte vor uns. Die haben wir noch nicht geführt."
Wer haftet für Fehler eines automatischen Systems? Der Programmierer? Der Hersteller? Der Besitzer? Der Fahrer? Diese Grauzone der Verantwortung ist nach Ansicht von Markus Maurer mit ein Grund dafür, dass die Automobilindustrie den Käufern längst nicht alles an automatischen Systemen anbietet, was in den Versuchswagen schon gut funktioniert. Letztlich, so Harald Kohlrep, kommt es darauf an, eine möglichst klare Trennlinie der Zuständigkeit und damit der Verantwortung zu finden, zwischen autonomem System und Mensch.
"Wenn er keine Handlungsspielräume mehr hat, dann sollte ich die Systeme vollautomatisch machen. Weil dann auch klar ist, wer dafür wiederum die Verantwortung tragen muss, nämlich der Betreiber und der Entwickler des Systems. Und wenn ich den Menschen brauche im System, dann deswegen, weil er für irgendeinen Teilbereich Verantwortung übernehmen soll. Und das bedeutet, ich muss ihn auch in die Lage versetzen, mindestens Handlungsspielräume zu haben und Kontrolle zu behalten für die Teilbereiche, für die er verantwortlich sein soll. Und dieses Zusammenspiel hinzukriegen, das ist das Entscheidende, und dann wird es gut."
Die Forscher haben Zeit, ein Ethikmodul zu entwickeln. Das könnte dann auch in vielen anderen Gebieten zum Einsatz kommen. In der Pflege zum Beispiel. Sie gilt als der Wachstumsmarkt für die Robotik. In den Industrienationen wird die Bevölkerung immer älter, parallel sinkt die Zahl der Ärzte und Schwestern. Der Care-O-Bot aus Karlsruhe verspricht Entlastung: als elektronischer Butler kann er auf einer Station herumfahren und den Patienten selbstständig Wasser anbieten. Andere Pflegeroboter sollen die Patienten aus dem Bett heben oder zuhause die Spülmaschine ausräumen und den Boden putzen. Klingt eigentlich gut. Aber gerade in der Pflege haben ganz alltägliche Handlungen eine moralische Dimension.
Zweites Gesetz: Ein Roboter muss Menschen gehorchen.
Care-O-Bot muss dem Patienten gehorchen. Konflikt: Der Patient will sein Wasser nicht nehmen.
"Das sind genau diese Handlungszusammenhänge in der Pflege, die man sich genau überlegen muss. Das eine Argument ist immer: Na gut der bringt immer Wasser. Soll niemand Durst leiden. Aber das eben mit Pflegen auch eine Art Anweisung an den Patienten erfolgt, ob man das von einem Robotersystem quasi ähnlich entgegennehmen möchte, ist schwer zu beurteilen","
sagt Michael Decker. Die autonomen Systeme von heute sind in der Regel unsichtbar. Keine Roboter oder Fahrzeuge, sondern bloßer Computercode. Software, die Entscheidungen trifft.
""Das Schlimme ist, es ist nicht immer offensichtlich, dass es tatsächlich Software ist, die Ihr Leben beeinflusst."
Debora Weber-Wulf ist Professorin für Medieninformatik an der Hochschule für Technik und Wirtschaft Berlin und Mitglied der Arbeitsgruppe Ethik und Informatik der Deutschen Gesellschaft für Informatik.
"Also, ich hab mich auch gewundert, wo ich jetzt Weihnachtseinkäufe gemacht habe. Also, ich habe für mehr als 100 Euro Essen auch eingekauft, und auf einmal musste ich die PIN eingeben in einem Laden wo ich bisher nur mit Unterschrift bezahlt haben. Und an der Stelle hat die Software entschieden: 'Hm, das könnte ein Risiko sein, wir wollen lieber mal vorsichtig sein.'"
Für die Geschäfte ist das PIN Verfahren mit höheren Kosten verbunden, dafür haben sie die Sicherheit, den Kaufpreis auch tatsächlich zu erhalten. Auch Visa, American Express und Mastercard lassen Software die generelle Kreditwürdigkeit ihrer Kunden und das finanzielle Risiko jedes einzelnen Einkaufs prüfen. Menschen werden erst eingeschaltet, wenn es zu Protesten kommt. Und dann heißt es oft:
"Tut mir leid, der Computer gibt Ihnen keinen Kredit. Und dann ist es nicht: Ich gebe Dir keinen Kredit. Sondern wir haben jetzt ein Medium dazwischen."
Die Verantwortung löst sich auf, wird von der Bank über den Programmierer in das automatische System übertragen. An der Börse gibt es ähnliche Entwicklungen. Computerbanker spekulieren selbstständig. Das Algorithmic Trading macht in zwischen fast die Hälfte der Umsätze mit US-Aktien aus, in Europa liegt der Wert bei knapp einem Drittel. Der Vorteil der Programme: sie sind schnell und münzen selbst kleinste Kursschwankungen in Gewinn um. Ihr Nachteil: sie sind wenig flexibel. Am 6. Mai 2010 brachen die Kurse an der New Yorker Börse plötzlich um 1000 Punkte ein. Binnen 20 Minuten wurden 350 Millionen Dollar vernichtet. Die Kurse erholten sich im Tagesverlauf, aber es blieb ein großer Verlust. Auslöser des Minicrashs war ein menschlicher Fehler, der durch die autonomen Computerhändler in einer Kettenreaktion dramatisch verstärkt wurde. Weber-Wulff:
"Das Problem ist, wenn jeder so einen Algorithmus hat. Der Markt reagiert sehr instabil und dann kommen wir in Situationen hinein, wo wir uns dadurch ruinieren können, ohne dass irgendein Mensch darüber nachgedacht hat. Und das finde ich höchst problematisch."
Nicht nur die Banker, auch die Polizei setzt inzwischen auf eigenständige Software-Agenten, Softbots genannt. Forschungsprojekte wie "Samurai", "Mind‘s Eye" oder "Indect" arbeiten an autonomen Programmen, die selbstständig Überwachungsvideos auswerten. Gleicht ein Gesicht einem Fahndungsfoto oder verhält sich ein Mensch anders, als erwartet, schlagen sie Alarm. Weber-Wulff:
"Wo kommen die Regeln her, was ist verdächtig? Wie sollen wir denn einer Maschine beibringen können, wann eine Situation verdächtig ist und wann es nicht. Oft gibt es tatsächlich einfache Erklärungen für diese Art von Verhalten."
Genau wie Debora Weber-Wulff fürchten Datenschützer, dass hier ein automatischer Bevölkerungsscanner entstehen soll, der jedermann jederzeit im Blick hat. Noch sollen "Samurai", "Indect" und "Mind’s Eye" den echten Polizisten nur das ermüdende Sichten des Videomaterials abnehmen. Es wäre allerdings aus der Logik dieser Systeme heraus nur konsequent, ihnen auch Handlungsoptionen zu ermöglichen. Vielleicht Ampeln auf rot zu schalten, damit ein Verdächtiger nicht mit dem Auto fliehen kann. Spätestens dann wäre es wohl an der Zeit, nicht nur die Forschung von einer Ethikkommission begleiten zu lassen, sondern die Systeme selbst um ein Ethikmodul zu erweitern,
Jörn Marten Wille: "Ja, man sieht hier, was für schöne Situationen. Da habe ich lieber mal eingegriffen. Hier nimmt keiner auf uns Rücksicht. Im Gegenteil, wir werden häufiger geschnitten manchmal habe ich das Gefühl, als wenn ich im Privatwagen fahre. Aber das gehört halt dazu."
Wildermuth: "Das kann man ja unterschiedlich angehen. Da gibt es die aggressiven Fahrer, die nie jemand rein lassen, dann gibt es die ganz freundlichen, die immer schon im weiten Vorfeld abbremsen. Wie ist denn da Leonie eingestellt?"
Wille: "Das kommt darauf an: Wie viel Abstand halte ich, wie schnell reagiere ich darauf, da sind alles Parameter, da gibt es beliebig viele Stellschrauben, die man einstellen kann. Und wir haben das Fahrzeug so ausgelegt, dass es sich eher defensiv verhält aber natürlich trotzdem mitschwimmen kann."
"Ist das Problem nicht längst gelöst? Hat nicht Isaac Asimov ethische Gesetzte für Roboter formuliert? Erstens: Schade keinem Menschen. Zweitens: Gehorche Menschen. Und drittens: Kümmere dich um dich selbst. Ist das nicht alles was wir wissen müssen?"
So beschreibt der Philosoph Colin Allen die typische Reaktion eines Ingenieurs auf die Frage nach einem Ethikmodul für Roboter. Aber Asimovs Geschichten drehen sich eben genau darum, dass die drei einfachen Gesetze zu Widersprüchen und allem möglichen Katastrophen führen. Er hat sie formuliert, um auf Probleme hinzuweisen, nicht um sie zu lösen. Allen:
"Wenn man den Ingenieuren klar macht, dass es nicht so einfach ist, dann stellen sich einige der Herausforderung und andere sagen, das ist doch noch viel zu früh."
Einer, der sich der Herausforderung stellt, ist Markus Maurer von der TU-Braunschweig. Bei der Programmierung von Leonie hat er die Straßenverkehrsordnung als ethische Richtschnur genutzt. Aber er ist sich sicher: das wird nicht reichen, wenn die Autoindustrie immer komplexere Assistenzsysteme anbietet.
"Wir sind im automatisierten Fahrbetrieb und es wird auf jeden Fall zum Unfall kommen. Das automatische Fahrzeug ist jetzt vor die Frage gestellt: stoße ich jetzt mit dem LKW zusammen, oder überfahre ich ein Kind? Und das ist etwas, wir sprechen es auch in der Vorlesung an, diskutieren es mit den Studenten, und da merken wir, da sind die Ingenieure heute eigentlich noch nicht drauf vorbereitet. Und das ist ein Thema, was immer stärker werden wird und immer wichtiger werden wird. Zu sagen, nach welcher Ethik fährt das Fahrzeug überhaupt?"
Noch ist es nicht so weit, aber Markus Maurer hat sich schon einmal eine Ethikerin in sein Team geholt, um philosophischen Sachverstand an der Hand zu haben, wenn sich künftig ethische Fragen in seiner Forschung an autonomen Fahrzeugen stellen.
"Wie kann man eine Ethik in der Maschine programmieren? Ich meine, da gibt es nur Einsen und Nullen."
Der Informatiker Michael Anderson und seine Frau, die Philosophin Susan Anderson wollen an den Universität von Connecticut so etwas wie Moral in die Computersysteme implementieren.
"Zuerst müssen wir die ethischen Grundsätze finden. Da füttern wir den Computer mit moralischen Problemen und den Lösungen der Ethiker. Nach und nach leitet er daraus die Prinzipien hinter den korrekten Antworten ab."
Wann soll ein Arzt einem Patienten ein Medikament auch gegen dessen Willen verabreichen? Diese Frage haben die Andersons Ethikern in vielen Varianten vorgelegt. Mal waren die Pillen lebensnotwendig, mal nur vorbeugend, mal mit, mal ohne Nebenwirkungen. Mal war der Patient sehr klar in seiner Ablehnung, mal war er nur abgelenkt. Aus den Antworten der Ethiker leitete die Lernsoftware Regeln ab, die jetzt einen kleinen menschenähnlichen Roboter vom Typ Nao steuern. Der kann mit einer Pillendose über den Tisch zu einem Patienten laufen.
Nao: "It is time you take your medication."
Anderson: "No."
Nao: "OK. I will remind you later."
Nao akzeptiert die Ablehnung. Wann er wieder nachfragt, hängt zum Beispiel davon ab, wie nützlich das Medikament ist. Weigert sich der Patient dauerhaft, es einzunehmen, geht Nao davon aus, dass der Mensch die Situation nicht richtig einschätzt und der Roboter informiert den Arzt.
"I’am going to contact the doctor."
Die Andersons sprechen von Nao als dem ersten ethischen Roboter. Das ist wohl noch übertrieben, aber der Lern-Ansatz klingt vielversprechend. Doch es gibt ein Problem: die Informatiker können hinterher nicht vollständig überprüfen, welche ethischen Regeln das System eigentlich aus den Beispielen abgeleitet hat, ob sie wirklich menschlichen Moralvorstellungen entsprechen. Außerdem funktioniert Maschinenlernen am besten auf eng begrenzten Erfahrungsbereichen. Das Prinzip müsste für autonome Systeme mit einem breiten Einsatzgebiet radikal erweitert werden. Einige Forscher träumen davon, einen Computer wie ein Kleinkind lernen zu lassen. Das würde vielleicht Jahre dauern, aber anders als bei Kindern könnten die gewonnenen Erfahrungen einfach in spätere Systeme hineinkopiert werden. Doch auch hier ist der Philosoph Michael Decker skeptisch.
"Dass es attraktiv wäre, so etwas zu probieren, und wenn wir dann wieder die Analogie verwenden, wie kommen eigentlich Menschen zu ihren moralischen Entscheidungen und dann sagt man: Na gut, die werden sozialisiert, das kriegen sie von den Eltern beigebracht und in der Schule und so weiter, wenn also Robotersysteme ähnlich lernen würden, dann könnte man auch die steile These vertreten, das passiert ähnlich wie bei einem Menschen dann auch mit allen Schwächen und Stärken."
Menschen sind aus Sicht der Moralphilosophie ganz sicher nicht perfekt. Lernende Maschinen wären das wohl auch nicht. Es ist aber völlig offen, ob man Maschinen dieselben Fehler wie Menschen verzeihen würde. Der Top-Down-Ansatz versucht deshalb eine Ethik fest ins Elektronengehirn einzuschreiben. Am weitesten ist hier Ronald Arkin von der Georgia Tech University. Im Auftrag der US-Armee programmiert er die Genfer Konvention. Das hat den großen Vorteil, klare Regeln aufstellen zu können, zum Beispiel heilige Stätten im Kampf möglichst zu schonen. Das elektronische Ethik Modul von Ronald Arkin projiziert verschiedene Handlungsmöglichkeiten einer bewaffneten Drohne in die Zukunft. Weiterfliegen, Panzer vor Gebäude beschießen, Panzer im freien Feld beschießen. Dann werden die verschiedenen Optionen nach ethischen Kriterien gewichtet. Weiterfliegen neutral. Panzer zerstören positiv, Panzer vor Gebäude. Gebäude prüfen. Laut Datenbank eine Moschee, also negativ. Ronald Arkin hat sein Programm an realen Daten von Drohneneinsätzen in Afghanistan erprobt. Unterm Strich entschied es meist so wie der menschliche Operator. Für Ronald Arkin ein erster Beleg, dass ein Ethikmodul grundsätzlich möglich ist. Debora Weber-Wulff:
"Moral und das Handeln in einer Situation lässt sich nicht auf eine Abfolge von Normen, von Regeln abbilden. Es gibt sehr viele verschiedene Vorstellungen davon. Die Philosophen haben viel Spaß daran, an diesen Sachen nachzudenken. Aber wenn die sich schon nicht einig sind, wie sollen wir das in Code überführen können? Das geht einfach nicht Das ist diese Wunschdenken. Die Welt ist nicht so einfach, die Welt ist unglaublich komplex und bedarf ein Austarieren, ein Aushandeln mit Menschen untereinander darüber, wie das richtige Verhalten ist."
Dieser Austausch ist für Debora Weber-Wulff das zentrale Element ethischen Handelns in einer pluralistischen Gesellschaft. In Robotern aber wäre eine Moral festgeschrieben. Das ist ein beliebtes Argument gegen jede Roboterethik: an welchen Vorstellungen soll sie sich orientieren? An religiösen Geboten und wenn ja an welchen? Am größten Glück der größten Zahl, aber wer misst das? Oder an letzten Prinzipien, aber wer setzt die? Colin Allen:
"Ich glaube, dass die Philosophen solche Unterschiede zu sehr betonen. Wenn ich mich hier umdrehen und den Studiotechniker erschießen würde, wären Kantianer und Utilitaristen wohl einer Meinung: mein Handeln wäre unethisch. Es ist wichtig, die schwierigen Fälle in Philosophieseminaren zu diskutieren. Aber das sind nicht die Diskussionen, die für das alltägliche Handeln von Menschen oder Maschinen wichtig sind."
Einfache Regeln. Auf die hofft Markus Maurer, denn er ist davon überzeugt, dass die Konstrukteure von Fahrerassistenzsystemen unweigerlich vor moralischen Fragen stehen werden.
"Ob sie es wollen oder nicht, wir haben noch einmal die Dilemmasituation: fahre ich über das Kind oder stoße ich mit einem anderen Fahrzeug zusammen. Wir Techniker sind letztendlich dann die, die es umsetzen, und die das Sittengesetz brauchen, um sich orientieren zu können."
Anders als beispielsweise Debora Weber-Wulf kann sich Markus Maurer auch gut vorstellen, dass sich ethisches Verhalten tatsächlich in Robotern, autonomen Softbots oder automatischen Fahrzeugen programmieren lässt.
"Ich meine Gesetze, auch ethische Gesetze sind dann gut formuliert letztendlich, wenn sie umsetzbar sind. Das ist jetzt der Techniker, der da spricht. Ich bin da ganz optimistisch, dass wenn wir uns da geeinigt haben, was ist denn richtig und falsch in Situationen, dass wir das auch Umsetzen können. Das Problem, was wir in jedem Fall noch die nächsten fünf bis zehn Jahre haben ist, dass wir wahrnehmungsseitig, also von der Erfassungsseite die Voraussetzung schaffen müssen, um überhaupt dann unsren ethischen Ansprüche auch etablieren und umsetzen zu können."
Jörn Marten Wille: "Zur Zeit ist das immer noch ein laufendes Projekt. Dass das Fahrzeug in allen Situationen sicherer fährt, als der Mensch, das haben wir natürlich noch nicht realisiert, das kommt so erst mit den Jahren. Aber natürlich reagiert das Fahrzeug in vielen Situationen wesentlich schneller, reproduzierbar, es schläft nie ein, das sind halt alles so Vorteile, die die Technik so bietet. Und das kann der Mensch nicht in allen Situationen abdecken. Was der Mensch natürlich als Vorteil hat: Wir haben über Jahre natürlich unheimlich viel gelernt, vor allem Intuition haben wir sehr viel. Und wir können gewisse Dinge einfach besser vorhersehen. Das ist sicher eine große Aufgabe, die das Fahrzeug noch lernen muss."
Leonie: "Vielen Dank. Ich hoffe, Sie hatten eine Angenehme Fahrt. Bis zum nächsten Mal."