Tanja Runow: Dass Computer Gesichter erkennen können, auf Facebook-Profilen zum Beispiel, daran haben wir uns längst gewöhnt. Dass uns die "Google Fotos"-App die verschollenen Schnappschüsse vom Hund oder vom letzten Kindergeburtstag aus den Tiefen unserer Festplatte hervorholt: praktische Erfindung. Doch bei solchen eher simplen Hilfsarbeiten wird es vermutlich nicht bleiben. Längst sitzen Ingenieure an Rechnern, die Texte lesen und analysieren können, die Gerichtsakten wälzen, eigenständig Mode entwerfen, Fabrikanlagen steuern oder Gedichte verfassen. Und dem einen oder anderen wird schon langsam schummrig bei dem Gedanken, was da für so ein langsames Menschenhirn noch übrig bleibt an Aufgaben in der näheren Zukunft. Der Wettbewerb zwischen Mensch und Maschine, er scheint eröffnet. Ein Kampf um Arbeitsplätze - aber auch ums Selbstwertgefühl. Ein Thema, das auch den Medienwissenschaftler Andreas Sudmann beschäftigt. Er bereitet gerade eine umfangreiche Publikation dazu vor und ist mir aus Berlin zugeschaltet. Guten Tag, Herr Sudmann!
Andreas Sudmann: Guten Tag, Frau Runow.
Runow: Was interessiert Sie an dem Thema "künstliche Intelligenz und lernende Maschinen" als Medienwissenschaftler, Herr Sudmann?
Sudmann: Also, ich bin vor einigen Jahren schon auf das Thema gestoßen, als ich mich mit den Empfehlungs-Algorithmen von Netflix beschäftigt habe. Als Medienwissenschaftler interessieren wir uns jetzt nicht nur für die Programme und ästhetischen Formen dieser Programme, sondern auch für das, was sozusagen die Programme und Formen auch ermöglicht: die technischen Voraussetzungen zum Beispiel. Und dazu gehören unter anderem sogenannte Lern-Algorithmen oder KI-Technologien - heute mehr denn je. Und sie greifen in alle Bereiche des kulturellen und gesellschaftlichen Lebens ein.
Runow: Sie sagen, diese Lern-Algorithmen werden schon lange Zeit entwickelt, in letzter Zeit ist aber häufiger wieder die Rede davon, und zwar im Zusammenhang mit dem sogenannten Deep Learning. Also, das ist immer das, was so als Quantensprung gefeiert wird. Was verbirgt sich dahinter und was ist damit möglich, was vorher nicht möglich war?
Sudmann: Also, in Anlehnung an neurowissenschaftliche Modelle des menschlichen Gehirns werden beim Deep Learning künstliche neuronale Netzwerke trainiert, um, wie bei anderen sogenannten maschinellen Lernverfahren auch, statistische Strukturen in großen Datenmengen zu ermitteln. Das können bestimmte Muster sein, die eben in Big Data auftauchen und die ein Mensch so ohne Hilfsmittel nicht erkennen würde.
Runow: Also einfach gesagt: Früher musste der Rechner von Hand mit allen nötigen Informationen gefüttert werden sozusagen. Bei der Gesichtserkennung zum Beispiel sagen, so und so sieht ein Auge aus. Und jetzt lässt man da riesige Datensätze durchlaufen und der Rechner lernt sozusagen selber, was ein Auge ausmacht. So ungefähr?
Sudmann: Ja, so ungefähr. Und tatsächlich besteht das Geniale, wenn Sie so wollen, der Technologie darin, zumindest jetzt erst mal auch aus der Laien-Perspektive, aber nicht weniger für Experten, dass die Lern-Algorithmen tatsächlich ohne vorfabriziertes Wissen auskommen. Es findet keine klassische, konventionelle Programmierung statt, damit Maschinen bestimmte Tätigkeiten optimal ausführen können, zum Beispiel Muster in Bildern oder Objekte in Bildern zu erkennen.
Runow: Damit ist aber Lernen kein Privileg des Menschen mehr. Das weckt natürlich Ängste.
Sudmann: Ja, das weckt tatsächlich Ängste. Das ist auch vielleicht begründet. Es wird ja auch in den Medien viel über das Verschwinden der Arbeit gesprochen, dass jetzt tatsächlich Maschinen auch dort, in Bereiche eindringen, die tatsächlich bisher den Menschen vorbehalten waren, menschliche Expertise, vielleicht kreative Tätigkeiten und so weiter. Das droht sozusagen als Horizont, ist aber jetzt auch noch nicht in dem Maße Realität.
Runow: Gut, es gibt diese Mode entwerfenden Roboter aber schon.
Sudmann: Es gibt tatsächlich vieles, aber sozusagen an der Oberfläche beeindruckt. Also, Menschen arbeiten mit der Technologie dann auch zusammen, das ist nicht so, dass sozusagen die Maschinen das automatisch produzieren. Aber …
Runow: Noch, könnte man natürlich sagen!
Sudmann: Richtig, man könnte sagen, noch. Aber es ist noch viel zu leisten. Ich würde sagen, dass solche Technologien wie Deep Learning noch in den Kinderschuhen stecken, aber dennoch schon viel erreicht wurde tatsächlich, etwa im Bereich der Bilderkennung. Man denke an "AlphaGo", wo auch unter anderem mit maschinellen Lernverfahren des Deep Learning natürlich der Weltmeister im Spiel "Go" geschlagen wurde. Und das ist sicherlich ein Quantensprung, weil das Spiel "Go" eben intuitiver ist als jetzt ein Spiel wie Schach etwa. Und insofern ist das schon auch tatsächlich eine kleine Revolution, die wir momentan beobachten können. Und insofern sind das keine Utopien, über die wir sprechen, sondern tatsächlich reale Veränderungen, die schon sehr beeindruckend sind.
Runow: Jetzt haben Sie schon angesprochen, in den Medien findet schon ein Diskurs darüber statt. Aber man kann feststellen, da gibt es eigentlich zwei Positionen: die Euphoriker, das sind meistens Technik-Freaks, und die Apokalyptiker, die sagen, es wird zu einer unglaublichen Arbeitslosigkeit führen, es wird zu einer unglaublichen Ungleichheit in der Gesellschaft führen, weil nur sehr hochqualifizierte Leute dann irgendwie noch einen Job finden und alles andere kann ersetzt werden. Welche Art von Debatte wünschen Sie sich denn?
Sudmann: Also ich würde vielleicht sagen, es gibt vielleicht drei Gruppen, tatsächlich: Einerseits die Euphoriker, tatsächlich, und die Apokalyptiker, also die sich, sagen wir mal, was die Ausschläge betreffen, beide eben durch sehr extreme Positionen auszeichnen. Dann gibt es aber noch die Skeptiker, die den Errungenschaften der KI immer misstrauen und sagen: KI ist immer genau das eigentlich, was …
Runow: KI ist "künstliche Intelligenz", müssen wir auch noch mal sagen.
Sudmann: Genau, KI ist "künstliche Intelligenz". Und künstliche Intelligenz ist immer das, was immer noch nicht erreicht ist.
Runow: Aber was ist mit dem Roboter-Anwalt oder dem Roboter-Hausarzt? Halten Sie das für komplett unrealistische Szenarien in der mittelfristigen Zukunft?
Sudmann: Kommt darauf an, was Sie unter "mittelfristig" verstehen. Wenn es tatsächlich Zeiträume betrifft jenseits der fünf Jahre, würde ich sagen, darüber sollte man keine Aussage treffen, weil das kann niemand tatsächlich vorhersagen. Da ist die Wahrscheinlichkeit eines Irrtums doch größer, als dass es zutreffend ist. Grundsätzlich würde ich sagen, natürlich wird auch in solchen klassischen Bereichen, Kreativ-Bereichen, es möglich sein, grundsätzlich möglich sein, dass Deep-Learning-Technologien dort nicht nur Einzug erhalten, sondern in einer Weise, sagen wir mal, Aufgaben übernehmen, die bis dato nur von Menschen als möglich gedacht wurden zu bewältigen. Und das ist, glaube ich, schon. Also, wenn man das überhaupt denken kann jetzt und auch behaupten kann, dann ist das schon, glaube ich, eine signifikante Veränderung gegenüber dem, was man vielleicht vor zehn Jahren über KI vielleicht gedacht hat oder gesagt hat.
Runow: Eine Sache, die ja immer wieder angeführt wird, ist das Argument, dass Computer keine Emotionen simulieren können. Ist das nicht eine Kompetenz, die uns dann erhalten bleibt?
Sudmann: Ja, das ist eine ganz wichtige Frage. Tatsächlich glaube ich, das Deep-Learning-Verfahren, was diesen Bereich der Simulation von Emotion oder emotionaler Intelligenz betrifft – im Moment ist gar nicht daran zu denken, dass diese Technologie für solche Bereiche eingesetzt werden kann. Das heißt jede Form des Wissens, was auf Emotionen basiert ist, z.B. Erfahrungen, die tatsächlich mit Schmerz verbunden sind oder mit Trauer und so weiter. All das, das ist natürlich tatsächlich eine Erfahrung, sie zutiefst und nicht zuletzt körperabhängig ist. Und insofern tatsächlich von gegenwärtigen Deep-Learning-Systemen überhaupt simuliert werden kann.
Runow: Also, der Roboter-Altenpfleger ist eigentlich ein ziemlicher Horror.
Sudmann: Dem würde ich eigentlich widersprechen, wiederum. Natürlich ist es denkbar, dass ein Roboter für die Pflege eingesetzt werden kann und auch in der Lage ist, einen Patienten gut zu betreuen. Vielleicht jetzt nicht so wie ein Film wie "Her" das vorführt, ja, wo es plötzlich darum geht, dass man eine Liebesbeziehung zu seinem AI-System unterhält. Also davon sind wir, wie gesagt, völlig entfernt. Das ist mit Blick auf die gegenwärtige Technologie absolut undenkbar, dass das in naher Zukunft realisiert wird. Aber dass wir Systeme haben, mit denen man kommunizieren kann und die einen auch sozusagen betreuen und auch feststellen können, ob es einem gut geht oder schlecht geht, das ist natürlich möglich und auch, glaube ich, für mich ein wesentlicher Einsatzbereich solcher Roboter-KI-Technologien in der nahen Zukunft.
Runow: Mhh. Was bedeutet das denn für unsere Gesellschaft? Womit müssen wir uns auseinandersetzen, mit welchen Fragen?
Sudmann: Also erst mal empfiehlt es sich, sich mit der Gegenwart zu beschäftigen. Wahrzunehmen oder zur Kenntnis zu nehmen, dass diese Technologien existieren, dass sie sehr viel leisten können schon, etwa im Bereich der Spracherkennung und Übersetzung und natürlich Bilderkennung. Und das betrifft sehr relevante Fragen natürlich, auch der Überwachung etwa, überhaupt die Datensicherheit, wenn man zum Beispiel daran denkt, dass Facebook Deep-Learning-Technologien einsetzt für das automatische Tagging von Gesichtern oder überhaupt von Bildelementen, dann ist das sicherlich auch ein prekärer Bereich, der politisch sehr relevant ist.
Runow: Mhh.
Sudmann: Weshalb sich die Politik und natürlich insbesondere auch die Geistes-Kulturwissenschaften damit auseinandersetzen müssen. Weil es geht ja auch letztendlich um ethische Fragen. Also, denken Sie an die selbstfahrenden Autos, auch dort spielen Deep-Learning-Technologien eine Rolle. Da muss ein System, ein KI-System, auch irgendwann entscheiden, fahre ich jetzt unter Umständen in dem weniger gepanzerten Auto oder weniger sicheren Auto, wenn ein Unfall vermeidbar ist. Oder entscheide ich mich dafür, möglicherweise sogar vielleicht auf dem Bürgersteig zu fahren.
Runow: Da herrscht, glaube ich, auch so ein Gefühl der Wehrlosigkeit vor. Da stellt man sich schon vor, es wird zwei große Player geben aus dem Silicon Valley, die sich den Markt unter sich aufteilen. Und was da irgendwelche Geisteswissenschaftler und Medienwissenschaftler dazu sagen, das ist denen wahrscheinlich egal, oder?
Sudmann: Ja, das wird sich zeigen. Wichtig ist ja auch, dass man die Debatte nicht nur denjenigen überlassen darf, die sozusagen im Kern jetzt ja auch von dem Erfolg der Systeme abhängig sind und letztendlich PR betreiben oder eben von der Großindustrie bezahlt werden, sondern es ist auch wichtig, dass unabhängige Leute sich damit auseinandersetzen. Ohne dass man jetzt, sagen wir mal, alle, die jetzt für Google oder Facebook arbeiten, unter Generalverdacht stellt, dass sie letztendlich böse Technologien produzieren oder so. Oder überhaupt, sagen wir mal, korrupt oder gewissenlos wären.
Runow: Nee, aber man sieht natürlich am Beispiel Facebook schon, wie so eigene Regeln aufgestellt und etabliert werden.
Sudmann: Richtig, deswegen ist es ja auch wichtig, dass man sich damit kritisch auseinandersetzt und es insofern auch unabhängige Leute gibt, die vielleicht nicht die technische Kompetenz haben, was das Detailwissen betrifft, aber die natürlich ein konzeptionelles Verständnis haben.
Runow: Mit dem Medienwissenschaftler Andreas Sudmann habe ich gesprochen über die kulturelle Dimension von künstlicher Intelligenz und lernenden Maschinen. Und weitere Erkenntnisse dazu kann man dann, wie gesagt, im nächsten Jahr nachlesen. Die Publikation, die er mit seinem Kollegen Christoph Engemann herausgibt, erscheint im Transcript-Verlag. Herr Sudmann, danke für das Gespräch!
Sudmann: Ja, ich danke Ihnen!
Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Der Deutschlandfunk macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.