Archiv


Künstliche Sinne im Visier

Es sind die vielfach parallel stattfindenden Prozesse im Gehirn, die das menschliche Denkorgan so komplex machen. Warum da selbst die fortschrittlichsten Supercomputer nicht mithalten können, erläutert Wissenschaftsjournalist Maximilian Schönherr im Gespräch mit Manfred Kloiber.

    Manfred Kloiber: Das parallele Computing ist auch so ein alter Traum der IT. Maximilian Schönherr, hat man denn inzwischen Rechner, die in Sachen Parallelität dem Gehirn irgendwie das Wasser reichen könnten?

    Maximilian Schönherr: Natürlich nicht. Das neuronale Netz von Markrams Rechenzentrum in der Schweiz lässt 8000 Prozessorkerne parallel laufen. Übrigens: auf Grafikkarten-Prozessoren – also GPUs vor allem – könnte man das auch nachbilden in anderen Netzen. Dort ist es ein Großrechner. Und das menschliche Großhirn allein hat schon 20 Milliarden solcher Einheiten. Ganz abgesehen von der Energie. Die Maschine wird bei Markram mit 100 Kilowatt Strom gespeist, also mehrere Einfamilienhäuser. Das Hirn dagegen kommt mit der Energie von einer Glühlampe aus.

    Kloiber: Das heißt ja dann eigentlich, man backt nur ganz kleine Brötchen und mit der Künstlichen Intelligenz hat das eigentlich nur wenig zu tun, oder?

    Schönherr: Nicht mit dem KI-Gedanken von Marvin Minsky aus den 1980er-Jahren. Aber mit Kognition, also Lernen, Denken und Verknüpfen von Ideen schon. Wenn auch auf sehr kleinem Niveau. Die KI-Wissenschaftler strotzten damals, auch wegen der vielen Fördergelder, die die bekamen, vor Arroganz. Die neue Generation der kognitiven Computerforscher ist viel bescheidener – und effektiver: Das aktuell griffigste Beispiel haben mir alle Experten genannt, mit denen ich darüber sprach: die Spracherkennung am Smartphone. Man kann in die Geräte ja hinein diktieren, und sie ziehen aus unserem undeutlich Gesprochenem mitsamt Umgebungsgeräuschen meist sinnvolle Zusammenhänge heraus. Und sie lernen dazu. Das geschieht übrigens nicht im Telefon – so leistungsfähig das Smartphone heute auch ist, sondern es passiert mit einem massiv parallelen System.

    Kloiber: Das kennen die meisten von uns wahrscheinlich besser als die sogenannten Cloud, die ja irgendwo im Internet sitzt.

    Schönherr: Ja, das passiert in der Cloud. Das ist eine Killeranwendung für das Cloud-Computing. Das heißt, wenn wir in die Maschine, in unsere Smartphone diktieren, wird das parallel gerechnet in einem neuronalen Netz irgendwo in der Cloud. Ohne Internetanbindung funktioniert das nicht. Die Spracherkennung gilt heute in der Forschung als Vorzeigebeispiel für das neue KI, für kognitives Computing. Wenn IBM in den nächsten fünf Jahren fünf Sinne mit dem Smartphone bedienen will, hat das genau damit zu tun. Das Telefon spielt nur eine untergeordnete Rolle. Zum Beispiel bedient den Berührungssinn die amerikanische Marketingexpertin Robyn Schwartz. Angenommen, wir kaufen übers Internet ein Hemd. Dann können wir das Hemd sehen, den Schnitt, die Farbe, dir Größe wird benannt. Aber wir können es nicht anfassen. Diese taktile Qualität – also den Stoff übers Handy anzufassen - will Robyn Schwartz auf das Handy bringen.

    Kloiber: Und wie will sie das machen? Im Handy ist zum Beispiel dieser Vibrator drin – damit?

    Schönherr: Genau. Mit viel komplexeren Rüttelmotoren, sagt sie natürlich, als wir es bisher haben. Wir bräuchten dafür auch mehrere. Aber ich habe sie gefragt, sie will auch Feuchtigkeit, also feuchte Stoffe zum Beispiel, nasse Strukturen damit herstellen. Aber das kriegt man nicht so einfach hin.

    Kloiber: Das heißt also, wir sehen das Hemd am Bildschirm und das Telefon vibriert dann?

    Schönherr: Um die Antwort hat sich Robyn Schwartz eigentlich herumgedrückt. Wahrscheinlich wird es so funktionieren. Ihr Hauptanliegen ist es, eine Maschine in den Zustand zu bringen, das sie etwas entwickelt, was uns an diese Sensorik und dieses Gefühl erinnert, über Seide, über Baumwolle, über Kunststoff zu streifen. Und so etwas Diffuses, so etwas Komplexes ist mit einer deterministisch aufgebauten Von-Neumann-Maschine einfach nicht zu bewältigen. Dafür braucht man neuronale Netze, kognitives Computing. Genauso wie beim Gehör. Da macht der Mathematiker Dimitri Kanevsky ein Projekt. Da hört das Mobiltelefon nebenan das Baby weinen, sendet bestimmte Kenngrößen dieses Tonsignals übers Internet an den Cloud-Computer, der stellt mit seiner kognitiven Architektur Zusammenhänge her, lernt durch die neue Information dazu und meldet dann dem hörgeschädigten Vater oder der neuen Babysitterin: Das ist kein normales Nörgeln, wo man das Kind jetzt mal zehn Minuten alleine weiternörgeln lassen kann, sondern das Kind hat vermutlich heftige Bauchschmerzen.

    Kloiber: Das heißt aber dann, das Smartphone spielt nur eine untergeordnete Rolle beim kognitiven Computing?

    Schönherr: Ganz genau. Ohne die weite Verbreitung dieser internetfähigen Smartphones gäbe es diese mächtigen Impulse für die kognitive IT nicht. Was wir dauernd mit uns herumtragen, sind ja nicht nur kleine Computer, es sind vor allem auch Sensoren. Und es ist nur eine Frage der Zeit, bis da auch Strahlungsdetektoren und Schadstoff-Messgeräte miteingebaut sind. Und denken wir an Car-to-Car-Kommunikation – unsere Autos der Zukunft oder schon jetzt – die Highend-Modelle – sind Sensorbomben. Die liefern Unmengen an Daten, die man nur so verarbeiten kann.