Archiv


Roboter sind auch nur Menschen

Roboter werden den Menschen immer ähnlicher. Sie können zunehmend das, was bisher ein Privileg des Menschen war: Gefühle entwickeln. Aber unterliegen sie auch menschlichen Regeln? Die Roboter-Ethik war auch Thema bei der Konferenz "Computer, Roboter und Philosophie".

Von Thomas Wagner |
    Erinnern Sie sich noch an R2D2 und an C3PO? Die beiden galten mal als Stars in einem Kulturfilm. Der hieß "Krieg der Sterne”, spielte Ende der 70er-Jahre Millionen ein. R2D2 sah aus wie eine blinkende Ritterrüstung, C3PO wie eine umherrollende Mülltonne mit Blinklichtern und Antennen drauf. Bei beiden handelt es sich in dem Hollywood-Epos um Roboter - Roboter allerdings mit menschlichen Zügen: Sie schäkerten und scherzten miteinander. Und wenn C3PO die elektronischen Augen verdrehte und seine elektronischen Ur-Piepse von sich gab, klang das so, als ob ein kleines Kind zu weinen begann. R2D2 und C3PO, zwei Roboter mit menschlichen Zügen - Science-Fiction natürlich, was auch sonst? Aber: Vielleicht ist die Idee von Robotern, die so ähnlich aussehen wie Menschen und die so ähnlich fühlen wie Menschen, gar nicht soweit hergeholt. Viele Wissenschaftler, die die vergangenen Tage auf dem Kongress "Computer, Roboter und Philosophie” an der Technischen Universität München diskutierten, sind jedenfalls überzeugt davon, dass Roboter einerseits von ihrem Aussehen dem Menschen immer ähnlich werden - und dass sie auch so etwas wie Emotionen entwickeln.

    Normalerweise kommen sie ziemlich ungelenk daher. Die Bewegungen verlaufen ruckartig; die Stimme klingt blechern. Roboter erscheinen zumeist als ein aus vielerlei Kabeln, Blinklichtern und Blechteilen zusammengeschraubtes Etwas. Doch so ganz zeitgemäß ist dieser Eindruck nicht mehr. Roboter können zunehmend das, was bisher ein Privileg des Menschen war: Gefühle entwickeln. Die nämlich seien überlebensnotwendig für komplexe, intelligente Systeme, ganz unabhängig davon, ob sie wie der Mensch biologisch oder wie ein Roboter technisch basiert sind. So jedenfalls sieht es Professor Rolf Pfeifer, Leiter des Labors für künstliche Intelligenz an der Universität Zürich:

    "Jetzt kann man sagen: Wenn die Batterieladung runtergeht oder wenn der Blutzuckerpegel runter geht, dann muss ich etwas tun, um diesen Zuckerpegel oder die Batterieladung wieder raufzukriegen. In diesem Fall gerät der Roboter unter Druck sozusagen. Und wenn er diese Aufgabe nicht erfüllen kann, dann wird er eine Emotion wie Erregtheit, Angst oder so etwas zeigen, die aber Begründet ist in der Physiologie des Roboters. Und Emotionen beim Menschen, beim biologischen System sind ja auch begründet weitgehend in der Physiologie."

    Angst, Liebe, Freude - solche Emotionen haben auch beim Menschen ihre Funktionen: Mal sind solche Gefühle Ansporn zu einer raschen Überlebensstrategie, mal dienen sie der Fortpflanzung und damit der Erhaltung der Art, mal sorgen sie dafür, einen optimalen Daseinszustand möglichst lange zu erhalten. Weil Roboter immer intelligenter werden, also selbstständig Bewegungs- und Handlungsabläufe lernen, entwickeln sie auch Emotionen - aus der Notwendigkeit heraus, auf Veränderungen der Umwelt entsprechend zu reagieren. Daneben ähneln Roboter in einer zweiten Hinsicht dem Menschen immer mehr: Zwei Arme, zwei Beine, ein Kopf - immer häufiger sehen Roboter so aus wie Menschen. Rolf Pfeifer vom Züricher Institut für künstliche Intelligenz:

    "Das ist weil..wenn wir jetzt Roboter haben möchten, und viele möchten das ja, die in unserer Umwelt funktionieren, ohne dass wir die Umwelt spezifisch modifizieren müssen für diese Maschinen, dann sind all diese Gegenstände, die wir haben, unsere Geräte, unsere Autos, alles was wir haben, die Telefone, die sind gemacht für eine menschliche Anatomie. Das heißt: Wenn wir eine Maschine haben, die auch eine menschliche Anatomie hat, die mit diesen Geräten umgehen kann, die diese Manipulationsfähigkeiten hat, dann müssen die Umwelt für diese Maschinen nicht modifizieren."

    "Geh doch da lang. Es dauert nicht mehr lang, und Du funktionierst nicht mehr richtig. Die kurzsichtiger Schrotthaufen Du"!"

    Wenn Roboter auf zwei Beinen daher kommen, Emotionen entwickeln, ja sogar wie in "Krieg der Sterne" miteinander scherzen, stellt sich allerdings die Frage: Inwiefern ist das Agieren dieser Maschinen auf zwei Beinen vorhersehbar? Wie weit darf die Selbstständigkeit gehen? Sind die Roboter überhaupt kontrollierbar? Professor Philip Brey beschäftigt sich an der niederländischen Universität Twenter mit der Nahtstelle zwischen Philosophie und Technologie?

    ""So ein Roboter ist halt eine sehr komplexe Maschine. Sie handelt und, wenn man so will, denkt unabhängig. Sie ist selbstständig lernfähig. Und diesen Lernprozessen liegen riesige Datenmengen zugrunde, die sich von vornherein nicht berechnen lassen. Da kann einiges schiefgehen. So ein Roboter kann eine Person plötzlich als Feind ansehen, als Eindringling. Oder ein Roboter kann stehlen oder auf andere komische Ideen kommen."

    Philipp Brey erhobt daher in München die Forderung nach einer Nationen übergreifenden Roboter-Ethik, die weltweit Gültigkeit erlangen müssen, an die sich alle Programmierer zu halten hätten. Jeder Roboter muss mit solchen Ethik-Grundsätzen programmiert werden. Eine vergleichbare Idee hatte bereits 1942 der Science-Fiction-Autor Isaac Asimov mit seinen Roboter-Gesetzen. Doch was seinerzeit noch Utopie war, soll nun nach dem Willen des niederländischen Experten Wirklichkeit werden. Darüber hinaus werde viel zu wenig darüber diskutiert, wie stark in Zukunft Menschen durch Roboter ersetzt werden - beispielsweise im Arbeitsprozess.

    "Wir sind gerade dabei, Roboter zu entwickeln, um damit Menschen in vielerlei Hinsicht zu ersetzen. Lassen Sie mich ein Beispiel nennen: Der Gesundheits-Sektor. Wir reden ja fast täglich über einen Mangel an Pflegekräften. Da entwickelt man gerade Roboter, die beispielsweise Patientin in Alten- oder Pflegeheimen vom Bett anheben, ihnen bei Alltagsdingen helfen. Die Konsequenz könnte sein, dass das menschliche Personal dort nach und nach verschwindet. Für uns stellt sich die Frage: Wollen wir das wirklich? Wollen wir, dass unsere Großmutter, unser Großvater im Pflegeheim zusammen mit einem Roboter lebt, der möglicherweise ihnen sogar vorlesen kann, ja sogar ein paar Sätze mit ihnen reden kann? Wir bräuchten sie da dann gar nicht mehr besuchen ... Ich meine, wir müssen über solche Entwicklungen sehr aufmerksam nachdenken."

    Nachdenken ja, aber nicht von vornherein verteufeln, sagt Professor Ruth Hagengruber, die an der Universität Paderborn den Forschungsbereich Philosophie und Informatik betreut.

    "Zum einen würde ich mich immer stark machen gegen eine Dämonisierung. Denn die Dämonisierung, sei es der Robotik, sei es der künstlichen Intelligenz überhaupt, ist eine Tat, die im Wesentlichen erst einmal von Menschen vollbracht wird."
    Das Handeln der Roboter in der Welt sei nichts anderes als ein Reflex menschlichen Denkens und Handelns. Denn immer noch würden Roboter von Menschen gebaut, von Menschen programmiert. Der Roboter ist demnach eine Art Spiegelbild für den Menschen selbst: Der erkennt bei der Betrachtung des Roboters Dinge, die er als Mensch nicht leisten kann, wird damit auf eigene Unzulänglichkeiten hingewiesen.

    "Wir können uns analytisch in den Blick nehmen, unsere eigenen Handlungen reflektieren und sagen: Was an unseren Handlungen ist eigentlich so systematisch, dass es im Grunde auch implementiert werden kann?"

    Will heißen: Welche Bestandteile unserer Persönlichkeit können auch von einer Maschine wahrgenommen werden - und welche nicht? So theoretisch, wie das auf den ersten Blick den Anschein hat, ist diese Fragestellung nicht. Robert Pfeifer vom Labor für künstliche Intelligenz in Zürich kennt ein Beispiel:

    "Es gibt eins ehr schönes Experiment in Japan. Und der hat einen Klon-Roboter von sich selbst gebaut. Der sieht genauso aus wie er. Natürliche erkennt man noch, welches der Mensch und welches der Roboter ist. Und es ist verblüffend, wie ähnlich die aussehen. Und er sagt, für ihn ist das Ziel, etwas über sich selbst zu lernen, indem er mit eigenem Gegenüber interagiert, das genauso ist wie er. Er möchte einen Klon haben, damit er sieht, wie er auf sich selbst wirkt."

    Der Roboter als Mittel zum Zweck der menschlichen Selbsterkenntnis - das ist eine bislang kaum diskutierte gesellschaftliche Funktion dieser Maschinen, die dem Menschen doch so ähneln. In dem Moment, wo sie, wie Robert Pfeifer glaubt, Emotionen entwickeln, wo sie durch eine komplexe Programmierung lernfähig sind, selbstständig werden, entwickeln sie sich gar zu eigenständigen Persönlichkeiten - mit weit reichenden Folgen.

    "In Korea wurde vor ein paar Jahren eine Konferenz über Roboter-Ethik abgehalten. Und dort ging es nicht so sehr, dass sich die Roboter gegenüber dem Menschen in der Gesellschaft ethisch verhalten, sondern dass sie auch Rechte haben. Und dass wir uns, wenn die dann intelligenter werden, gegenüber den Robotern auch ethisch verhalten müssen, nicht mehr alles tun können. Wir können dann nicht mehr einfach den Stecker ziehen oder die Batterie rausnehmen, weil dieser Roboter hat sich ja entwickelt, der hat auch eine gewisse Autonomie. Der Roboter hat so etwas wie eine eigene Persönlichkeit entwickelt! Dann stellt sich das Ziel, dass wir uns gegenüber diesen Robotern ethisch erhalten müssen."

    Wie dieses Regelsystem einer Roboter-Ethik aussieht, entscheidet allerdings alleine der Mensch, so Ruth Hagengruber von der Universität Paderborn:

    "Das wesentliche ist, dass der Mensch entscheiden kann, über das was geschieht, geschehen soll oder auch nicht. Der Mensch kann immer noch stoppen oder es anheben."

    Der Mensch hat es in der Hand, was aus den Robotern wird - und das ist letztlich ein wesentliches Unterscheidungsmerkmal zwischen Mensch und Roboter.