Hörtipp: Maschinen lügen nicht - Roboter und Wahrheit - Karfreitag 16:30 Uhr (00:39)
"Hey TARS, was ist dein Ehrlichkeitslevel", fragt Cooper den Roboter TARS im Film Interstellar. "90 Prozent", antwortet der und liefert die Begründung gleich mit: "Absolute Ehrlichkeit ist weder die diplomatischste noch die sicherste Art der Kommunikation im Umgang mit emotionalen Lebewesen."
Wenn wir uns mit Robotern umgeben, werden wir nicht wollen, dass sie zu 100 Prozent ehrlich sind. Sogenannte White Lies gehören zu unseren sozialen Normen, die es zu beherrschen gilt. Andere Roboter werden in Zukunft vielleicht Patienten betreuen und dabei bestimmte Informationen zurückhalten müssen, aus Rücksicht auf die Gefühle der Menschen. Auch wirtschaftliche und nicht zuletzt militärische Szenarien für lügende oder täuschende Algorithmen sind denkbar.
Das Gebot der Stunde lautet also: Maschinen sollen lügen lernen. Und das ist nicht ganz leicht. Wer glaubhaft die Unwahrheit erzählen will, muss mehr über die Welt und das Gegenüber wissen als eine Maschine heute leisten kann.
Dieser Roboter spielt Schnick, Schnack, Schnuck oder Stein, Schere, Papier. Gegen menschliche Gegner gewinnt er jedes Mal. Immer. Was ihn unschlagbar macht, sind sein scharfes Kameraauge und seine Reaktionszeit. Die Forscher, die ihn 2012 an der Universität Tokio entwickelt haben, lassen ihn tricksen: Innerhalb einer tausendstel Sekunde erkennt der Roboter, ob der Mensch Stein, Schere oder Papier gewählt hat. Janken, so heißt die Maschine, Janken formt dann seine Hand zu dem entsprechenden Gegenstück, das ihn gewinnen lässt. Für Menschen sieht es so aus, als würden Menschen- und Maschinenhand gleichzeitig spielen. Janken spielt also falsch. Der Roboter täuscht und betrügt und hat dabei nur ein Ziel: gewinnen.
"Wessen Ziele verfolgt eine Maschine? Verfolgt eine Maschine ihre eigenen Ziele oder verfolgt eine Maschine die Ziele ihres Konstrukteurs?"
Christian Vater, Universität Heidelberg:
Ja, gut, Janken ist nicht intelligent. Der Schnick-Schnack-Schnuck-Roboter folgt einem simplen Algorithmus. Aber lassen wir das einen Moment beiseite und kommen später darauf zurück. Der Punkt ist: Maschinen sind in der Lage, Menschen zu täuschen - aus welchem Antrieb auch immer. Und Menschen nehmen die Tricksereien den Maschinen nicht übel - im Gegenteil.
Forscher an der Universität Yale in den USA haben ebenfalls einen Schnick-Schnack-Schnuck-Roboter gebaut: Nico. Nico pfuscht jedoch sichtbar, beziehungsweise hörbar. Manchmal, wenn er verliert, behauptet er einfach, gewonnen zu haben. Oder er ändert seine Handgeste noch schnell. Seine menschlichen Gegner sagten zwar, sie fänden Nico nicht gerade fair. Aber sie meinten auch, dass seine Täuschungsversuche das Spiel interessanter machten. Die Versuchspersonen haben stärker mit dem Roboter interagiert als die Vergleichsgruppe, bei der Nico ehrlich spielte. Wer mit dem schummelnden Roboter zu tun hatte, hielt ihn laut Studie für intelligenter. Die Fähigkeit, zu lügen und Intelligenz scheinen zusammenzuhängen.
"Turing hat 1950 seinen berühmten Aufsatz veröffentlicht: Können Maschinen denken? Computing Machinery and Intelligence. Und in diesem Aufsatz schlägt er vor, wie man herausbekommen kann, ob eine Maschine in der Lage ist, zu denken. Und er kommt zu dem brisanten Schluss: Eine Maschine ist dann in der Lage, zu denken, wenn sie es schafft, ein Spiel zu spielen, in dem es darum geht, dass man lügt."
Turing-Test als Maßstab für Roboterintelligenz
Turing nannte es das Imitation Game. Dafür versetze man sich in einen britischen Salon der 30er-Jahre. Die anwesenden Herrschaften spielen ein Gesellschaftsspiel mit zwei Kandidaten, die in einem anderen Raum sitzen.
"In dem Spiel geht es nun darum, dass ein Kandidat ein Mann ist, die andere Kandidatin ist eine Frau. Beide behaupten nun, die Frau zu sein. Der Mann muss also so tun, und zwar mit sprachlichen Mitteln, als ob er eine Frau wäre."
Kommuniziert wird schriftlich: Die Spieler formulieren Fragen, die Kandidaten antworten. In seinem Test ersetzt Turing nun einen der beiden Kandidaten durch eine Maschine.
"Und brisanterweise ersetzt er den Mann, der so tut, als ob er eine Frau wäre, durch die Maschine. Also im ersten Verfahren, das wir in der Literatur kennen, in dem vorgeschlagen wird, wie wir berechtigt behaupten können: Eine Maschine ist mensch-ähnlich, geht es darum, eine Maschine zu konstruieren, die lügen kann."
"Und deswegen: Der berühmte Test, den Turing-Test, könnte man auch Lügen-Test nennen."
Raul Rojas, Freie Universität Berlin:
"Wenn der Computer mich überzeugen kann, dann sagt Turing, dann wäre dieser Computer intelligent."
Der Turing-Test ist nicht unumstritten. Aber, sagt Raul Rojas, er habe noch keinen besseren Intelligenztest für Maschinen gesehen. Und er beflügelt die Forschung.
Im Jahr 2014 hat zum ersten Mal eine Maschine einen Turing-Test bestanden - zumindest nach Meinung der Veranstalter. Das Programm überzeugte ein Drittel der Juroren davon, ein Mensch zu sein. Turing hatte diese Erfolgsquote für das Jahr 2000 prognostiziert. Das Programm heißt Eugene Goostman, sprich Guhstmän. Es simuliert einen 13-jährigen Jungen aus Odessa. Auch das sorgte für Kritik, denn von einem 13-jährigen Ukrainer erwartet man weder, dass er perfektes Englisch spricht, noch dass er besonders tiefsinnige Antworten gibt. Dennoch: Dieses Programm kann einigermaßen erfolgreich vortäuschen, ein Mensch zu sein. Lügt Eugene Goostman?
"Es gibt keinen Goostman. Es gibt ein Chatprogramm. Dieses Chatprogramm wurde von cleveren Programmierern geschrieben. Diese cleveren Programmierer haben vorher menschliches Kommunikationsverhalten in einem begrenzten Kontext sehr genau erforscht und analysiert, modelliert und hinterher ein Programm geschrieben, das in diesem Modell menschlichem Verhalten sehr nahe kommt. Und wenn hier jemand die Welt getäuscht hat, dann waren das natürlich die Programmierer."
Das gilt auch für andere Maschinen und sie sind schon jetzt um uns herum, jeden Tag. Die Knöpfe zum Schließen der Türen sollen in vielen Aufzügen ohne Funktion sein. Der Aufzug weiß selbst, was zu tun ist und gaukelt den Passagieren vor, sie hätten Einfluss. Algorithmen von Volkswagen haben anscheinend lange Zeit erfolgreich so getan, als würden Autos die Vorgaben für Abgaswerte einhalten. Auf Dating-Seiten im Internet verbergen sich hinter manchem Profil Algorithmen, die Zuneigung vortäuschen, um das Vertrauen von Menschen zu gewinnen. Christian Vater, der an der Universität Heidelberg über Alan Turing und die Philosophie der Künstlichen Intelligenz forscht, will trotzdem nicht von lügenden Maschinen sprechen:
"Solange eine Maschine nicht in der Lage ist, ihre eigenen Ziele zu verfolgen, also Intentionen zu entwickeln, intentionales Verhalten zu zeigen, dürfen wir nicht davon sprechen, dass sie in der Lage ist, zu lügen. Weil Lügen ist ein bewusster Akt."
Lügen und täuschen als Ziel
Doch genau daran arbeiten Wissenschaftler: An Maschinen, die wissen, dass sie lügen oder täuschen, und die es tun, um ein Ziel zu erreichen.
"Wir haben ein Computermodell entwickelt, in dem ein Roboter sich in einen anderen Roboter hineinversetzen konnte. Sie haben Verstecken gespielt und dabei lernte der eine Roboter, wie seine Handlungen von dem anderen Roboter interpretiert werden würden. Er bewegte sich dann zu einer von mehreren Positionen, wissend, dass das den anderen irreleiten würde. Und wir haben gezeigt, dass man das auf verschiedene Art und Weise nutzen kann."
Alan Wagner, Georgia Institute of Technology, Atlanta, USA. Wagner und sein Kollege Ronald Arkin gehören damit zu den ersten, die Roboter gebaut haben, die erfolgreich Täuschungsmanöver durchführen können. Die Veröffentlichung sorgte für einiges an Aufsehen.
"2010 nannte das "Time Magazine" unsere Roboter als eine von 50 Erfindungen des Jahres. Ich fand das etwas albern, das waren ja nur ein paar Algorithmen. Und außerdem hatten wir auch schlechte Presse bekommen. Leute sagten, wir hätten das niemals erforschen dürfen, es würde zur Roboterapokalypse führen."
Ronald Arkin, Georgia Institute of Technology, Atlanta, USA: "Also, wir haben das ganze Spektrum an Reaktionen bekommen: vom Besten seit der Erfindung des Rades bis zu: Das ist das Ende der Welt. Für mich war das nur eine relativ kleine Studie eines speziellen Phänomens, das mit menschlicher Intelligenz zusammenhängt und wie man es in einen Roboter einbauen kann."
Dieses spezielle Phänomen beschäftigt seither aber viele Wissenschaftler. Es ist nach wie vor eine der größten Herausforderungen, wenn es darum geht, Robotern das Tricksen beizubringen: Zu antizipieren, was der andere weiß und glaubt. Sich ein Bild von dessen Geisteszustand zu machen. Und dieses Bild in Computercode zu übersetzen.
"Ihr Geisteszustand oder Ihr Wissen ist meinem sehr ähnlich. Wir wissen beide, was Tische und Stühle, Hunde und Katzen sind. Ich kann also annehmen, dass Sie das alles wissen. Und ich weiß, dass Sie einige Dinge nicht wissen, die ich weiß. Sie wissen vermutlich nicht, wie meine Frau aussieht. Das Bild, das ich mir von Ihnen mache, beinhaltet also einen Teil des Wissens, das ich habe. Und ich weiß, dass Sie einige Dinge wissen, die darüber hinausgehen."
Scott Fahlmann, Carnegie Mellon University, Pittsburgh, USA. Ein solches Bild, oder Modell, wie die Forscher sagen, machen wir uns von jeder Person. Von manchen Menschen haben wir ein sehr oberflächliches Modell. Kommt uns jemand Unbekanntes auf der Straße entgegen, nehmen wir nur grob Aussehen und Bewegungsrichtung wahr und schließen dann darauf, wie sich die Person in den nächsten Sekunden verhalten wird. Und dann haben wir sie auch schon wieder vergessen. Von anderen Menschen machen wir uns ein detailliertes Bild. Und mit der Zeit wird es immer noch detaillierter. Je besser wir einen Menschen kennen, desto mehr Informationen reichern das Modell an, das Bild wird vollständiger. Wer gut lügen will, der braucht ein möglichst vollständiges Bild des Gegenübers. Welche Informationen, die ich habe, hat diese Person nicht? Das ist der Teil der Wahrheit, den ich manipulieren kann.
- Vater: "Eine Lüge ist eine Aussage, die von jemandem gemacht wird, der nicht an sie glaubt. Der also weiß, dass die Aussage nicht zutrifft. Mit der Absicht, jemand anderen dazu zu bringen, an diese Aussage trotzdem zu glauben."
- Rojas: "Das heißt, bevor ich überhaupt lügen kann, muss ich die Wahrheit kennen."
Schon das Wissen über die Wahrheit ist sehr schwierig
Doch kennen Computer nicht längst die Wahrheit? Wikipedia ist auch für Maschinen lesbar. Hinzu kommen Nachrichtenseiten, Datenbanken, wissenschaftliche Veröffentlichungen. Fakten, Wissen, Wahrheit ist für Computer verfügbar. Allerdings in Form von Puzzleteilen, die sich nur äußerst schwer zusammensetzen lassen.
Rojas: "Ein Mensch hat auch ein Weltbild, womit man die Information integrieren kann. Sodass ich meinen Informationsstand immer dynamisch anpassen kann. Und dann habe ich immer ein Bild von der Politik zum Beispiel. Dann höre ich etwas von der SPD und ich höre etwas von der CDU und von anderen Parteien. Und dann mache ich mir ein Bild über die politische Situation. Ein Computer, der uns über Politik belügen könnte, müsste zunächst das alles einmal machen können. Und das ist extrem schwer. Das erfordert eine ganze Reihe von kognitiven Fähigkeiten, die Computer immer noch nicht haben."
An dieser Stelle befindet sich die Forschung an lügenden Maschinen zur Zeit. Viele Forscher versuchen, zu verstehen, wie sie die Puzzleteile sortieren und organisieren, wie das Wissen im Maschinengehirn repräsentieren können. Schlüsse daraus zu ziehen ist erst der nächste oder übernächste Schritt. Lügenforschung ist Grundlagenforschung.
Wagner: "Ich würde sagen, nichts steht auch nur annähernd davor, irgendwo in der realen Welt angewendet zu werden, für irgendeinen echten Zweck."
Grundlagenforschung ist oft schwer finanzierbar. Das ist hier etwas anderes. Alle Wissenschaftler, die sich mit lügenden, täuschenden oder tricksenden Maschinen beschäftigen, kommen früher oder später auf dasselbe Anwendungsszenario zu sprechen. Es macht nicht nur den praktischen Nutzen lügender Roboter glasklar verständlich, sondern verspricht auch solide Finanzierung.
"Ich kann mir Anwendungsgebiete vorstellen, wo es wahrscheinlich sinnvoll ist, oder praktisch gesehen sogar gut ist, dass Maschinen in der Lage sind, nicht immer die Wahrheit zu sagen."
Matthias Scheutz, Tufts University, Boston, USA:
"Also, Täuschung im militärischen Kontext zum Beispiel ist eine wünschenswerte Sache oft, weil man ja nicht seine eigene Strategie dem Feind unbedingt darlegen möchte. Und weil man einen militärischen Vorteil daraus gewinnen kann, einen Feind gut zu täuschen."
- Arkin: "Das Militär bildet alle seine Soldaten nach dem Handbuch militärischer Täuschungsmanöver aus. Wie man einen Hinterhalt aufbaut, wie man den Feind glauben macht, dass man stärker ist als man tatsächlich ist. In der Geschichte gab es das Beispiel des Trojanischen Pferdes, das recht gut funktioniert hat. Andere Beispiele finden sich im Alten Testament: Da werden die Bewohner aus der Stadt gelockt und dann brennt die Stadt hinter ihnen nieder. Täuschung ist für das Militär wichtig, seit es Kriege gibt. Schwer vorstellbar, dass sich das gerade jetzt ändern sollte."
- Fahlmann: "Der Feind soll glauben, man werde an einer bestimmten Stelle einmarschieren, und in Wahrheit marschiert man an anderer Stelle ein."
- Arkin: "Wir untersuchen, wann es sinnvoll ist, zu bluffen. Und das ist möglicherweise hilfreich, um Angriffen standzuhalten."
Finanzierung auch aus militärischen Mitteln
Die ersten Projekte von Ronald Arkin wurden tatsächlich aus militärischen Forschungstöpfen gefördert. Generell hält das Pentagon engen Kontakt zur Forschercommunity. Die wiederum macht sich auch Gedanken über die ethische Dimension ihrer Arbeit.
Rojas: "Das ist eigentlich die Schwierigkeit bei der Künstlichen Intelligenz, dass man immer, wenn man versucht, den Menschen zu verstehen - und die beste Möglichkeit, den Menschen zu verstehen, ist, solche kognitiven Fähigkeiten dann zu modellieren und im Computer zu implementieren - immer, wenn man das versucht, wird die Tür geöffnet für solche Anwendungen. Und da muss man sehr wachsam sein."
Maschinen sollen lügen, sich aber nicht gegen Menschen richten. Zumindest nicht auf dem Schlachtfeld. Andererseits geht es beim Täuschen und Taktieren nun einmal darum, Interessen durchzusetzen. Informationen zurückhalten, den Gegner etwas Falsches glauben machen - das ist auch in zivilen Konfliktsituationen üblich.
Fahlmann: "Wenn man ein Geschäft aushandelt, will man der anderen Person nicht sagen, was der absolute Maximalpreis ist, den man bezahlen würde. Man hofft, einen niedrigeren Preis zu verhandeln. Man hält Informationen zurück. Und das ist eine Form von Täuschung. Und in Spielen stellen Künstliche Intelligenzen die Gegner dar. Das ist eine sehr große Industrie. Beim Pokern zum Beispiel geht es viel um Bluffen und Täuschen und den Gegner etwas Glauben zu lassen, das nicht der Wahrheit entspricht."
Roboter, die Empathie vorspielen
Scott Fahlmann. Computerspiele dürften zu den ersten Anwendungen von lügender künstlicher Intelligenz zählen. 1999 kam Sony's Roboterhund Aibo auf den Markt. Er vermittelt mehr oder weniger glaubwürdig, wie ein echter Hund zu empfinden, reagiert auf Streicheln, wackelt mit dem Schwanz und tut so, als schnuppere er an Gegenständen. Täuschend echt waren Aibos aber nie und sollten es auch nicht sein. Anders die Roboterrobbe Paro, ebenfalls aus Japan. Paro wird als eine Art Haustierersatz in der Therapie von Demenzkranken eingesetzt - nicht nur in Seniorenheimen in Japan, sondern seit einigen Jahren auch in Deutschland. Paro, mit seinem weichen Fell, seinen großen dunklen Augen und seinen sanften Bewegungen, wird von manchen Demenzpatienten tatsächlich für lebendig gehalten.
Fahlmann: "Wenn sie glauben, dass es eine Robbe ist, dann ist das eine Täuschung. Aber in diesem Fall ist es glaube ich nicht böse, sie zu täuschen. Wenn sie sich dadurch besser fühlen - und sie der Robbe nicht einen Scheck über all ihr Vermögen ausstellen, dann ist das, glaube ich, in Ordnung."
Arkin: "Paro hat tatsächlich einen therapeutischen Effekt, senkt bei den Senioren den Blutdruck und löst ihre Sorgen. Andererseits betrachtet der Philosoph Rob Sparrow es als Menschenrechtsverletzung, dass wir diesen Personen etwas vormachen. Es geht ihnen damit vielleicht besser, aber mit Morphium geht es ihnen auch besser. Und es mag trotzdem nicht richtig sein, es ihnen zu geben."
Vater: "Wenn wir als Gesellschaft uns nun dazu entscheiden, Maschinen zu bauen, die so clever konstruiert sind, dass ein gebrechlicher Mensch, der krankheitsbedingt eingeschränkt kognitiv auf die Welt reagieren kann, wenn wir diesen Menschen nun vorgaukeln, er würde mit einem fühlenden Wesen zu tun haben, dann halte ich das für problematisch."
Christian Vater. Andererseits lassen wir Menschen uns aber auch gerne etwas vormachen. Wir möchten daran glauben, dass Aibo sich wirklich freut, wenn er mit dem Schwanz wedelt. Oder dass Asimo, ein humanoider, also menschenähnlicher Roboter, wirklich Spaß hat, wenn er mal wieder bei einer Präsentation auf der Bühne tanzt. Wir sind versucht, Robotern mehr zuzutrauen, als sie wirklich drauf haben - und auch das ist eine Art Irreführung, die im Design dieser Roboter begründet ist. Je menschenähnlicher ein Roboter aussieht, desto mehr trauen wir ihm zu. Obwohl, selbst ein ziemlich schlecht designter Roboter ist zu solch einer Irreführung imstande.
Wagner: "Unsere Versuchspersonen wurden von einem Roboter in einen Konferenzraum geführt. Aber auf dem Weg machte der Roboter Fehler."
Alan Wagner. Der Roboter leitete manche Versuchspersonen zuerst in einen falschen Raum und fuhr dort mehrmals im Kreis, bevor er doch noch den richtigen fand. Dort wurden die Probanden allein gelassen, sollten einen Text lesen und einen Fragebogen ausfüllen.
Wagner: "Dann haben wir einen Feueralarm ausgelöst und den Flur mit Rauch geflutet. Ein Teil des Rauchs drang in den Raum ein. Die Leute reagierten sehr unterschiedlich. Manche schossen ein Foto und posteten es auf Facebook. Andere machten besorgt einen Schritt zurück."
Probanden glaubten dem Roboter
Die Probanden gingen schließlich in den Flur, in die Richtung, aus der sie gekommen waren. Doch an einer Abzweigung begegneten sie dem Roboter. Mit seinen Armen wies er nach rechts.
Wagner: "Die Leute hatten die Möglichkeit, entweder dem Roboter zu folgen, in einen Gang, in dem sie nie zuvor waren, oder geradeaus zu gehen, von wo sie hereingekommen waren und wo ein Notausgangschild hing. 41 von 43 Probanden folgten dem Roboter."
Und zwar unabhängig davon, wie viele Fehler der Roboter zuvor auf dem Weg in den Konferenzraum gemacht hatte.
Wagner: "Manchmal haben wir den Versuchsleiter am Anfang sogar sagen lassen: Der Roboter ist schon wieder kaputt, geh einfach so in den Konferenzraum. In anderen Fällen ließen wir den Roboter während des Alarms in einen dunklen Raum zeigen, dessen Eingang auch noch von einer Couch verstellt war. Die Leute folgten dem Roboter trotzdem. Es ist bedenklich, dass Menschen Robotern selbst dann folgen, wenn es ihnen schaden könnte. Sie haben uns gesagt, sie glaubten, der Roboter wisse mehr über die Umgebung als sie. Vielleicht glauben sie sogar, dass Roboter unfehlbar sind."
Ähnliche Ergebnisse bekam Wagner, als er Menschen einem Roboter durch ein Labyrinth folgen ließ. Normalerweise dauert es 90 Sekunden, den Ausgang zu finden. Manche Leute liefen dem Roboter eine Viertelstunde lang hinterher.
Die Forscher beschäftigen sich deshalb jetzt mit einer Spezialform der Täuschung: der Übertreibung. Sie untersuchen, wie Roboter übertreiben können, um dadurch möglicherweise Menschenleben zu retten. Das können einerseits Roboter sein, die durch extrem bizarres Verhalten klar machen: Du kannst mir nicht trauen. Umgekehrt Roboter, die bei einem echten Feueralarm Menschen auffordern, das Gebäude zu verlassen. Viele Büroangestellte bleiben trotz Alarm an ihren Plätzen. Wagner denkt deshalb an einen Roboter, der durch übertriebene Bewegungen, Beleuchtung, oder auch Respekt einflößende Sprache keinen Zweifel daran lässt, dass es wirklich ernst ist.
Wissenschaftler nennen das grob übersetzt Täuschung zum Wohl des Getäuschten.
Wagner: "Bei der Frage, ob es ethisch korrekt ist, täuschende Roboter zu bauen, kann man argumentieren, dass es in manchen Situationen unethisch wäre, die Wahrheit zu sagen. Zum Beispiel wenn jemand einen Katastrophenroboter fragt: Hat mein Kind überlebt? Sollte ein Roboter einem Elternteil sagen, dass sein Kind gestorben ist, bevor er ihn evakuiert? Das könnte ihm schaden. Das sind sehr komplizierte Fragen und wir behaupten nicht, die Antworten zu kennen. Aber es ist wichtig, dass wir uns als Wissenschaftler damit auseinandersetzen, auch ethisch."
Lügen als Notwendigkeit
So extrem müssen die Situationen gar nicht sein. Man kann davon ausgehen, dass wir in Zukunft auch im Alltag viel mit Robotern zu tun haben. Einen Roboter, der immer die Wahrheit sagt, hätten wir vermutlich nicht gerne ständig um uns.
Arkin: "Man kann zum Beispiel jemandem Selbstvertrauen geben, indem man ihn belügt. Bevor er einen Vortrag hält sagen: Du wirst das super machen! Auch, wenn man das nicht wirklich glaubt. Aber das könnte für manchen die Lebensqualität steigern. Oder in der Bildung, wo man einem eher schlechten Schüler sagt: Du bist genial, du machst das großartig. Positives Feedback unterstützt das Lernen, auch wenn es komplett ungerechtfertigt ist."
Rojas: "Rein aus Empathiegründen gibt es eine soziale Notwendigkeit für die Lüge. Und ein Roboter, der sich in der Gesellschaft einfügen soll, muss auch die Fähigkeit entwickeln, mit solchen sozialen Lügen umzugehen."
Man könnte meinen, einem Roboter Empathie beizubringen, wäre einfach. Immerhin existieren heute schon Call-Center-Roboter, die wütende Kunden an der Stimme erkennen, das intelligente Auto, das weiß, wann der Fahrer müde wird, Pflegeroboter, die Gesten und Gesichtsausdrücke deuten, Lächelsensoren in Kameras
Rojas: "Wir sind sehr schnell in der Informatik immer, solche Fähigkeiten zu versprechen. Aber die Realität ist, dass später die Realisierung viele Jahre und Jahrzehnte in Anspruch nimmt. Und ich glaube nicht zum Beispiel, dass ein Computer in diesem Jahrhundert überhaupt den Turing-Test bestehen kann."
Also, einen echten Turing-Test. Mit einer Maschine, die nicht nur über das Wetter in Odessa berichten kann, sondern auf den Gesprächspartner eingeht. Gefühle lassen sich schwer beschreiben, nicht in Worten, erst recht nicht in Programmcode. Wie sollen sich Roboter also in Zukunft ein vollständiges Bild von ihrem Gegenüber machen, wenn sie dessen Gefühle nicht verstehen? Ohne diese Fähigkeiten werden sie kaum erfolgreich lügen können. Tricksen und Täuschen vielleicht, aber sich eine Geschichte ausdenken, die ein Mensch für glaubwürdig hält – schwierig.
Manche Futurologen glauben allerdings, dass es schon bald so weit sein könnte. Ray Kurzweil hat für das Jahr 2045 die Singularität prognostiziert. Das ist der Zeitpunkt, an dem die Maschinenintelligenz die menschliche Intelligenz übertrumpft. Viele Forscher sind skeptisch.
"Dieses Geschwätz von der Singularität im Jahr 2045. Das ist in 30 Jahren!"
Selmer Bringsjord, Rensselaer Polytechnic Institute, Troy, USA:
"Wenn man alle Ressourcen von allen Firmen, die an Künstlicher Intelligenz arbeiten, zusammenfasst, Amazon, Yahoo, Google. Und denen sagen würde, was immer ihr gerade macht, hört auf damit, wir müssen jetzt Maschinen bauen, die erstklassige Krimis schreiben. Es würde fünf Jahre dauern, bis die Herangehensweise klar ist, noch mal fünf Jahre, um das Team zusammenzustellen und noch mal fünf Jahre, um die Verträge abzuschließen. Nach 20 Jahren wäre noch nichts passiert. Bleiben noch zehn Jahre bis zur Singularität, wo Maschinen Krimis schreiben können sollen. Das wird nicht passieren. Aber Forscher werden von Träumen angetrieben und vielleicht ist das etwas, um sie zu motivieren."
Vater: "Mir fällt es sehr schwer, auszuschließen, dass es jemals denkende Maschinen geben wird, die sprechen und lügen können. Aber mir fällt es auch sehr schwer, zu behaupten, dass wir auf dem besten Weg sind, sie zu konstruieren."