Archiv

Mensch, wo ist deine Maschinenschnittstelle?
Die schleichende Abschaffung des Aus-Knopfs

Die Mensch-Maschinen-Schnittstelle macht zurzeit einen grundlegenden Wandel durch. In vielen Bereichen verschwindet sie, weil wir, ohne es zu merken, Teil der Maschine werden: Wir tauchen ins Internet, in dessen soziale Netze ein und verlieren das Gefühl für den Übergang zwischen analoger und digitaler Welt.

Von Maximilian Schönherr |
    Der Standby/On-Schalter an einem Radiogerät
    "Standby" und "On" - aber kein Schalter für "Off" (Deutschlandradio / Frank Barknecht)
    "Früher haben wir Werkzeuge benutzt."
    ... den Hammer...
    "Dann haben wir Maschinen bedient."
    ... Propellerflugzeuge, Nähmaschinen, Handquirls ....
    "Jetzt interagieren wir mit intelligenten Systemen."
    Intelligente Systeme?
    "Ich brauche gar nicht mehr mit der Maschine zu interagieren, weil sie ja von alleine weiß, was ich brauche."
    Eine Maschine, die mich bedient, statt ich sie?
    "In zukünftigen Konzepten für Mensch-Maschine-Interaktion wird die Maschine eine immer aktivere Rolle einnehmen."
    Aber ich kann doch immer noch sagen: Stopp?
    "Es ist überhaupt nicht mehr klar, was Ein- und Ausschalten ist. Und es wird auf mittlere und längere Sicht überhaupt nichts mehr geben, was Sie in dem Sinne abschalten können."
    Mensch, wo ist deine Maschinen-Schnittstelle? Oder: die schleichende Abschaffung des Aus-Knopfs.
    Von Maximilian Schönherr
    1984 hat Apple den Macintosh vorgestellt. Es war der erste Personal Computer mit einer Maus. Die Menschen, die schon vorher Computer hatten und sie über die Tastatur ansteuerten, dachten, sie sehen nicht recht...
    "Was ist das denn? Wie geht das denn? Ist das ein Rollrädchen?"
    Sie drehten die Maus um, untersuchten die Kontakte, rollten mit den Fingern an der Kugel unten drin – und waren verzaubert.
    Das sind klassische Überlegungen zur Mensch-Maschine-Schnittstellen. Klassisch deswegen, weil man die Schnittstelle klar erkennt: die Hand und die Maus, die Finger und der Touchscreen. Eine andere heute stark beforschte eindeutige Schnittstelle dieser Art ist das Lenkrad beim Auto. Wenn der Fahrer bei einem autonomen Auto zwei Tasten auf dem Lenkrad gleichzeitig drückt, übernimmt das Fahrzeug das Lenken.
    Mensch und Maschine auf Augenhöhe
    Im Englischen heißt Mensch-Maschinen-Schnittstelle HMI, Human Maschine Interface oder Interaction, beides sagt hier dasselbe. Ina Petermann-Stock leitet das HMI-Team fürs vollautomatische Fahren bei Volkswagen.
    "In dem HMI-Konzept, das in diesem Fahrzeug integriert ist, nutzen wir die Sprache für die Rückholung des Fahrers in die manuelle Fahrt. [Ansage: Piloted mode will be deactivated in 15 seconds.] Und dann merkt man sehr deutlich, dass man in dieser sehr sensitiven Phase, wo plötzlich wieder die manuelle Fahrt ansteht, das ein hilfreiches Medium ist, um ganz genau zu sagen, was der Fahrer tun muss, und um ihn auch sanft wieder zurück zu holen. [Ansage: Take over driving.]"
    Wenn die autonome Fahrt endet und ich das Steuer nach all den akustischen Vorwarnungen übernehmen soll, kommt das Lenkrad dezent auf mich zu und sagt mir mit dieser Geste: Hier bin ich. Fass mich an!
    Das Lenkrad ist in der aktuellen Forschung der Inbegriff der gut sichtbaren Mensch-Maschinen-Schnittstelle. Bei halb automatischen Autos sorgt der Spurhalteassistent dafür, dass man nicht einfach so die Spur nach links wechselt: Das Lenkrad fängt dann an, dezent nach rechts zu rütteln, um uns vor dem Wagen in der Nachbarspur, den wir übersehen haben, zu warnen. Das heißt, die Schnittstelle funktioniert in beide Richtungen: Wir lenken mit ihr die Maschine, das Auto, und sie meldet uns Dinge aus der Maschine, die wichtig sein können.
    Die Schnittstelle Lenkrad wird in naher Zukunft noch wichtiger werden, denn das Fahrzeug meldet über sie nicht nur, wenn Bedarf zum Eingriff besteht, ...
    "... sondern es erzählt am Lenkrad, was es gerade tut. Aber dabei redet und visualisiert es nicht, es lenkt einfach. Und es lenkt so, dass wir verstehen können, welche Intention es verfolgt. Das heißt: Ich fahre jetzt geradeaus, fühlt sich anders an. Und wir können das auch unterscheiden, also wenn ich zu einem Überholmanöver ansetze. Es ist eine sehr stumme Art der Kommunikation, die sich sehr gut gestalten lässt und die einen Kanal nutzt, den wir beim Autofahren auch sehr intuitiv gebrauchen, und in dem wir auch hoch trainiert sind."
    Klaus Bengler, Leiter des Lehrstuhls für Ergonomie an der Technischen Universität München.
    Dass wichtige Interface-Entwicklungen immer wieder und besonders heute ausgerechnet im Auto passieren, liegt an der großen Industrie, die dahinter steckt. Die Entwicklungen sind manchen Wissenschaftlern zu rasant, etwa Michael Herczeg, dem Leiter des Instituts für Multimediale und Interaktive Systeme der Universität Lübeck.
    "Jetzt holt uns zum Teil die Geschwindigkeit ein, wenn Sie sehen, wie schnell im Bereich der Automobiltechnologie Assistenzsysteme unter die Leute gebracht werden, auch unter dem Marktdruck der Hersteller untereinander. Da bleibt wenig Zeit für eine öffentliche Diskussion."
    Was meint Michael Herczeg mit öffentlicher Diskussion? Die Systeme funktionieren doch. Das mit dem Geschichten erzählenden Lenkrad ist doch eine prima Idee! Jain, meint Herczeg, und er erinnert an die 1980er Jahre, als sich das Antiblockiersystem ABS einfach so in die Bremsen einschlich und...
    "... wo es nicht mehr so klar war, wer ist eigentlich Chef: Mensch oder Maschine? Das heißt, wir haben eine Lösung, die den Menschen glauben lässt, er habe die Kontrolle. Auf der anderen Seite greift eben ein Stück Technik ein, wenn dieses Stück Technik meint, dass es besser wäre, dem Fahrer zumindest temporär die Kontrolle ein Stück weit zu entziehen, in diesem Fall, um das Blockieren von Reifen zu verhindern. Aber es ist ein Eingriff.
    Wie der Germanwings-Absturz vielleicht hätte verhindert werden können
    Und es wurde selten unter diesem Gedanken diskutiert. Es wurde einfach so getan, als sei es ein Stück assistive unterstützende Technik, die nur Gutes tut – was sie im Allgemeinen auch tut. Aber es lassen sich eben Fälle konstruieren, wo es besser wäre, sie wäre nicht da."
    ABS ist ein relativ überschaubares System und wurde ohne ethische Diskussion durchgewinkt. Ganz anders verlief das bei viel komplexeren Systemen wie dem Autopiloten in einem Flugzeug. Der Autopilot übernimmt das Ruder. Der Pilot, also der Mensch, gibt der Maschine, dem Flugzeug, dafür die ausdrückliche Genehmigung. Die Mensch-Maschinen-Schnittstelle spielt während des automatischen Flugs keine Rolle. Jederzeit kann der Pilot den Aus-Knopf drücken, um den Autopiloten zu beenden und wieder selbst zu steuern. Er hat die Oberhand. Nicht der Autopilot.
    Gäbe es diese Autorität Mensch nicht, wäre der Germanwings-Airbus aus Barcelona im März 2015 nicht in die Alpen gestürzt. Denn dann hätte die Maschine dem Piloten eine Weile lang beim Sinkflug zugesehen und dann allein entschieden:
    "Sorry, deinen Sinkflug kann ich nicht nachvollziehen. Du gefährdest damit 150 Menschenleben. Ich lasse das nicht zu, nehme die Schnittstelle Steuerknüppel selbst in die Hand und fliege uns mit der Automatik in Sicherheit!"
    Die Maschine kennt über ihre Sensoren und die Bordelektronik die Bewegung des Flugzeugs und die Geometrie der Umgebung so gut, darf aber ihre Kompetenz nicht ausspielen. Der Mensch, in diesem Fall der Pilot, der den Suizid plant, hat das letzte Wort.
    Das hat ethische und rechtliche Gründe. Es sind, wie beim ABS, Fälle denkbar, wo der Pilot irre wirkende Dinge mit einer Maschine veranstaltet, die die Bordelektronik nicht kennt und gar nicht beurteilen könnte: Notlandungen mit nur einem Triebwerk bei Sturm auf Wasser etwa.
    Die Aushebelung der Mensch-Maschinen-Schnittstelle ist eines der heikelsten Themen aktueller technischer Entwicklungen.
    Heutige Autos der gehobenen Mittelklasse machen sich ein Bild von der Umgebung, das sehr präzise ist. Die Sensoren sehen viel früher als der Fahrer, dass ein Kind zwischen zwei parkenden Autos auf die Straße läuft, und die Bordelektronik leitet die Vollbremsung ein. Aber auch in diesem Fall, wo die Parameter eindeutig sind, schreibt die Gesetzgebung – übrigens in allen Ländern – vor, dass der Fahrzeugführer die letzte Entscheidung treffen darf. Wenn er aufs Gas steigt, stirbt das Kind. Der Wagen wird nicht sagen:
    "Nein, mein Lieber, das lasse ich nicht zu."
    Hätte sich bei der Airbus-Katastrophe im Frühjahr 2015 die Bordelektronik ein Bild nicht nur von der Umgebung, sondern auch von dem Piloten gemacht, wäre die Entscheidung noch eindeutiger ausgefallen, denn der Pilot verhielt sich ja seltsam, indem er seinen Copiloten nicht wieder ins Cockpit ließ.
    Klaus Bengler von der TU München hat vorhin das Lenkrad erwähnt, das Geschichten erzählt, und er sprach von Kommunikationswegen...
    "... die die Maschine wählt."
    Die Maschine wählt, wie sie mit uns spricht; nicht wir Menschen wählen, wie und wann wir mit der Maschine in Kontakt treten!
    Mensch auf Maschine oder Maschine auf Mensch - Wer stellt sich auf wen ein?
    Wir geben dabei, teilweise gern und aus Bequemlichkeit, Kontrolle ab. Es kann so weit gehen, dass sich das Interface beim HMI, dem Human Machine Interface, also das "I", völlig auflöst. Es gibt keine Schnittstelle, kein Interface I mehr zwischen H (Human, Mensch) und M, der Maschine. Die Maschine ist auf Augenhöhe mit uns. Paul Lukowicz am Deutschen Forschungszentrum für Künstliche Intelligenz in Kaiserslautern:
    "Das ist so ähnlich wie ein richtig guter Mitarbeiter, ein guter Assistent. Dem muss ich nicht sagen, was er tun soll, sondern der antizipiert, was ich brauche und liefert mir die Dinge dann, wenn ich sie brauche."
    "Das heißt, wenn wir das unter der Optimierungstheorie sehen würden, würde aus HMI: HM?"
    "Ja. So könnte man das sehen. Die Maschine wird einfach immer größer, die Interaktion immer kleiner, und die Rolle der Maschine immer komplexer."
    "Übertragen wir das doch mal auf einen Haushaltsroboter, der einem behinderten Menschen hilft, ihn aus dem Bett hebt oder ihm Tee bringt. Wäre die Schnittstelle, dass er ihm sagt: 'Bring mir Tee'? Das müsste er ihm doch sagen können, das würde der Roboter über Siri oder worüber auch immer irgendwie verstehen, das wäre das I, oder?"
    "Das wäre das I. Man kann sich aber auch vorstellen, dass der Tee schon auf dem Nachttisch stehen würde, wenn der Mensch aufwacht, und zwar auch der richtige Tee, der zum Tag und zur Stimmung und zu seinen Bedürfnissen passt."
    "Es ist ja jeden Tag ein anderer Tee!"
    "Das ist eine philosophische Frage: Sind wir Menschen denn so leicht ausrechenbar, oder sind wir es nicht? Die meisten von uns sind überraschend an Gewohnheiten gebunden."
    "Also das möchte ich nicht erleben..."
    ..., sagt der Musiksoftwareentwickler Peter Neubäcker. Er ist Gitarrenbauer und hätte in dieser Sendung eigentlich nichts zu suchen. Aber er ist auch ein berühmter Softwareentwickler, bekannt für seinen radikalen Stil: Er programmiert, ohne sich um das Interface zu kümmern. Ihn interessiert der Code und was er für ihn selbst bewirkt, er will die Maschine stets unter Kontrolle haben.
    Paul Lukowicz' Bild des Pflegeroboters, der zur rechten Zeit den rechten Tee ans Bett serviert, provoziert.
    "Ich finde den Gedanken katastrophal, weil es in Wirklichkeit ja so ist, dass sich der Mensch immer auf das einstellt, was die Maschine kann. Und auch wenn er glaubt, dass er die Maschine so dressiert hat, das zu tun, was er will, stellt er sich trotzdem darauf ein, das zu tun, was die Maschine kann. Deshalb bleibe ich viel lieber dabei, dass der Computer so dumm wie möglich sein soll. Ich will nicht mit ihm kommunizieren, in dem Sinn, dass da jemand – eine Stimme – drin ist, die mir irgendetwas erzählt, denn sie erzählt ja auch nur die Sachen, die sie sozusagen gelernt hat.
    Ich glaube, dass bei dieser ganzen Philosophie der Mensch-Maschinen-Kommunikation ganz stark die Gefahr besteht, dass man glaubt, man würde dem Ding etwas beibringen und es dadurch komfortabler hat, dass man sich dabei aber selber dressiert, der Maschine zu gehorchen und selber immer weniger kreativ zu werden."
    Das Exoskelet als Paradebeispiel für die Interaktion von Mensch und Maschine
    Der Pionier der Computerkunst Frieder Nake, emeritierter Informatikprofessor an der Universität Bremen, sieht das ähnlich. Bei ihm erzeugt es Abscheu, wenn ein Computersystem sich auf Augenhöhe mit uns begibt und "ich" sagt. Er würde auch nicht "du" zu einer Maschine sagen, so wie ich das jetzt zu meinem Smartphone sage, über die klassische Mensch-Maschinen-Schnittstelle Mikrofon/Lautsprecher: "Erinnere mich doch wieder mal an Susi!"
    "Hier ist deine Erinnerung. Soll ich sie erstellen?"
    "Ach, ich hab's mir anders überlegt."
    "Ich verstehe leider nicht, was du mit 'überlegt' meinst. Hier ist deine Erinnerung. Soll ich sie erstellen?
    "Nein."
    "Um fortzufahren, sag einfach 'Uhrzeit ändern', 'Bezeichnung ändern' oder 'abbrechen'.
    "Sag mir erst, wie alt du bist!"
    "Ich verstehe nicht, warum das wichtig sein soll."
    Der Pflegeroboter ist kein aus der Luft gegriffenes Beispiel für eine neue Qualität der Mensch-Maschinen-Interaktion, sondern ein lebendiges Forschungsgebiet. Die Robotikexpertin und Psychologin Elsa Andrea Kirchner vom Deutschen Forschungszentrum für Künstliche Intelligenz in Bremen führt ein Beispiel aus der Altenpflege an: Demente Personen fühlen sich häufig bevormundet und beobachtet, besonders von Familienmitgliedern und dem Pflegepersonal. Mit einem humanoid, also menschlich aussehenden Pflegeroboter kämen sie aus demselben Grund nicht klar.
    "Hätten wir jetzt ein tierähnliches System, fühlten sie sich nicht so beobachtet, denn sie erwarten von einem Tier ja nicht, dass es sie bevormundet und beobachtet."
    Elsa Andrea Kirchners Forschungsgebiet ist der schmale Grat, auf dem Mensch und Maschine kognitiv kooperieren können. Ein prototypisches Beispiel dafür ist das Exoskelett, das unsere Gedanken braucht, um handeln zu können.
    Bei diesem Experiment am Robotics Innovation Center in Bremen lernt ein Roboterarm aus den Hirnströmen eines Probanden. Der Proband, selbst Wissenschaftler, trägt ein sogenanntes Exoskelett an seinem Oberkörper; das sind im Prinzip Scharniere, Gelenke und Motoren an seinen Armen und Schultern.
    Sobald der Proband auf die Tasse vor sich blickt und daran denkt, diese Tasse jetzt greifen zu wollen, setzt sich wie von Geisterhand der Arm des Exoskeletts in Bewegung Richtung Tasse. Die Bewegung ist sehr dezent, kaum zu spüren.
    Hätte der Proband auf die Tasse geguckt, aber statt an die Tasse an den Feierabend gedacht, wäre das Exoskelett inaktiv geblieben.
    "Wenn ein Querschnittsgelähmter oder jemand nach einem Schlaganfall eine Lähmung des rechten Arms hat, kann er über Therapie diese Kraft im Arm durchaus zurückgewinnen. Die Therapie sieht häufig so aus, dass der Arm bewegt wird. Es ist ganz schwierig für die Person, den Arm zu bewegen. Nach und nach kommt das vielleicht wieder, aber die Erfolge sind klein, kleine Schritte, sehr frustrierend, viele geben einfach recht früh auf.
    "Die Maschine ist überall"
    Wenn wir jetzt ein System haben, das den Menschen unterstützt, aber nur so viel, dass er immer noch etwas selbst machen muss, und auch nur dann, wenn er es möchte, dann hat der Mensch einen größeren Erfolg, weil er wieder mehr mit dem Arm machen kann, er nutzt ihn mehr; aber was viel wichtiger ist: Er bekommt das Gefühl, er tut es, oder die Maschine ist ein Teil von ihm.
    Wenn das Exoskelett weiß, dass er sich bewegen will, dann ist es auf einmal viel leichter. Wir hatten tatsächlich Probanden, die sagten: Oh, das [Exoskelett] weiß ja, was ich will! Und das ist ein ganz starker Effekt, der nachweislich sehr positiv für die Rehabilitation ist, weil wir die Unterbrechung zwischen Gehirn und Körper aufheben."
    "Jetzt hat er von selber seinen Kopf gedreht."
    "Das haben Sie gemacht."
    "Ich hab das gemacht?"
    "Ja, Sie haben die Hand gedreht, das hier sind die zwei Hand-Achsen, da unten ist das Ellbogengelenk. Das ist die Rotation von Elle und Speiche beim Menschen. Sie können den jetzt in allen Achsen bewegen."
    Alin Albu-Schäffer, Leiter des Instituts für Robotik und Mechatronik bei der Deutschen Luft- und Raumfahrt-Behörde in Oberpfaffenhofen bei München.
    "Was Sie jetzt sehen, schwerkraftkompensiert, wie von Geisterhand, das passiert alles durch Software..."
    "Es ist ein bisschen, als würde man einen bewusstlosen Körper drehen."
    "Da müssten Sie jetzt aber aufpassen, weil der Roboter jetzt nicht mehr geschützt ist."
    "Sie kollidieren jetzt mit der Wand."
    "Ja."
    Dieser Roboterarm fühlt sich menschlich an. In anderen Robotern, die hier beim DLR gebaut werden, steckt man selbst drin, ohne richtig drin zu stecken. Man ist Teil eines Systems, wo die Grenzen zwischen Mensch und Maschine verschwinden. Die Schnittstellen sind noch da: klassische Interfaces wie Helm und Datenhandschuhe, sodass man das Loch in der Wand des Satelliten dreidimensional, also räumlich sieht, die Schraube an den Fingern spürt, wenn man sie greift, man dreht die Schraube hinein, um das Loch zu schließen – aber man ist, wie in der Filmtrilogie "Matrix", gar nicht selbst im Orbit, sondern ganz profan unten am Boden, und eine Schraube gibt es auch nicht. Früher hieß das "Virtuelle Realität", heute spricht man bescheidener von Immersion (Eintauchen) und von...
    "... Kraftrückkopplung. Das heißt, das Ziel ist eine Immersion zu erreichen, das Gefühl, direkt vor Ort da zu sein. Das 3D-Bild, die Kräfte, unter Umständen auch die taktile Information, die Fingerspitzengefühle so zu übertragen, dass der Mensch fast den Eindruck hat, vor Ort zu operieren. Das geht natürlich nur für begrenzte Zeitverzögerungen."
    Rasend schnelle Wechsel zwischen digitaler und realer Welt
    Beim Mensch-Maschinen-Thema müssen die Maschinen nicht unbedingt Roboter sein; sie zeigen sich oft in Form einer "intelligenten Umwelt": Und dann verwischen die Grenzen komplett.
    "Die Maschine ist überall..."
    Sagt Paul Lukowicz, dessen Institut sich "Embedded Intelligence" nennt, eingebettete Intelligenz...
    "Die Maschine ist überall, und das ist heute schon so. Wenn Sie in einem modernen Heim die Computer und Sensoren und Kommunikationseinrichtungen zählen, die Ihre Handys, Ihr Auto, Ihre Smart-TVs und Ihre Apple-TVs usw. haben, das ist schon enorm. Die Frage, vor der man momentan in der Forschung steht, ist: Wie kann man diese Vielzahl an intelligenten oder, sagen wir mal "smarten" Geräten mit Sensoren so kombinieren, dass sie dem Menschen tatsächlich sinnvolle Dienstleistungen anbieten.
    Es gibt eine Statistik, die besagt, dass ein durchschnittlicher Teenager 150 Mal pro Tag sein Handy herausnimmt. Das heißt, ich gehe 150 Mal zwischen der digitalen und realen Welt hin und her. Wenn Sie sich jetzt den Sinn der Smart Watches vorstellen: Der Sinn der Smart Watches besteht darin, dass der Schritt in die digitale Welt zu schauen oder etwas dorthin zu übertragen, noch kürzer und einfacher wird als mit dem Handy."
    "Weil ich es nicht mehr aus der Hosentasche holen muss?"
    "Ich muss es nicht mehr aus der Hosentasche holen und einschalten. Ich hebe das Handgelenk, sehe das, tippe einmal darauf. Das heißt, ich werde nicht 150 Mal pro Tag, sondern 550 Mal pro Tag irgendetwas damit machen.
    Das heißt, wenn man das umrechnet, dass ich alle paar Minuten zwischen der digitalen und realen Welt wechsle. So etwas wie Google Glass, was bisher kein sehr erfolgreiches Konsumerprodukt war, aber ein wegweisendes Konzept hat, bedeutet, ich brauche nicht mehr die Hand zu heben, ich brauche nur kurz nach oben zu blicken.
    Das heißt, man wird vielleicht irgendeinmal die Schwelle erreichen, wo der Mensch einfach im Sekundentakt zwischen der digitalen und der physikalischen Welt hin und her schalten kann, auf Informationen zugreifen und Informationen in die digitale Welt liefern kann. Die Welten verschmelzen mehr und mehr, und zwar nicht auf physischer Ebene, dass dann immer mehr Elektronik die Welt kontrolliert – das ist ein anderer Bereich –, sondern in unserer Wahrnehmung. In unserer Wahrnehmung werden wir immer weniger den Unterschied zwischen dem Physikalischen und dem Digitalen wahrnehmen, weil wir permanent zwischen diesen beiden wandern."
    Hinter dem Digitalen mit seinen vielen noch anfassbaren Geräten, den Smartphones, den Robotern, schwebt etwas Unfassbares im Raum: das Internet – für die meisten Wissenschaftler übrigens keine Maschine, sondern eher ein Vermittler von Prozessen.
    Das Soziale Netz verleibt sich alle Daten ein, die einmal angeboten wurden
    Das Internet als Metamaschine ist aber ein Bild, mit dem man arbeiten kann. Die klare Trennung Mensch/Maschine löst sich bei den laufenden Gängen vom Analogen ins Digitale nicht auf, aber sie weicht auf. Wenn man in ein soziales Netz "geht", weiß man nicht mehr, womit man es genau zu tun hat. Es fühlt sich ja so menschlich an, aber dahinter arbeiten Daten, und plötzlich schiebt mir die Maschine eine Werbung auf den Bildschirm, die mich mitten ins Herz trifft. Woher weiß die Maschine das?
    Wer durch einen einzigen unbedachten Klick der Maschine erlaubt hat, sein Adressbuch zu kopieren, findet keinen Weg zurück. Das soziale Netz verleibt sich die Daten ein, und wir wundern uns dann, warum uns das System vorschlägt, Kontakt mit einer Person aufzunehmen, an die wir ein halbes Leben lang nicht mehr gedacht haben, oder ein Café in einer Stadt zu besuchen, in dem wir noch nie waren – was uns sicher sehr gut gefallen würde, und es gefällt uns dann auch! Woher weiß die Maschine das?
    "Bei dem Elektronischen hat man so ein bisschen das intuitive Gefühl, das ist ja eine Intelligenz, die mich irgendwie durch ihren Geist und ihre monströse Intelligenz beherrscht. Es ist ein rein emotionaler Unterschied, weil ich das Gefühl habe, das Mechanische kann ich als Mensch beherrschen. Kann ich aber nicht; es hat physikalische Grenzen."
    Wir machen uns da also schon lange etwas vor – und müssen es vermutlich hinnehmen, dass die Maschinen noch unverständlicher, noch komplexer werden. Auch die Vorstellung, dass wir als Individuen einer Maschine gegenüberstehen, die wir bedienen oder die uns bedient, gehört der Vergangenheit an. Von Mensch-Maschine sind wir längst zu Gesellschaft-Maschine gekommen, ...
    "... zu der Kollektiv-Maschinen-Interaktion. Das HMI-Thema drehte sich darum: Ich verstehe, wie menschliche Kognition funktioniert und versuche dem Einzelnen die Information so anzubieten, dass sein kognitives System das optimal verarbeiten kann.
    Jetzt schaue ich mir ein menschliches Kollektiv an, eine Gruppe, die kollaboriert, die Gesellschaft als Ganzes. Ich habe eine Ahnung davon, wie diese Gesellschaft Informationen als Ganzes verarbeitet, was sie beeinflusst.
    Genauer überlegen, was die Maschine darf - und was nicht
    Jetzt habe ich ein System, das von der Gesellschaft genutzt wird: das Internet, und stelle mir die Frage: Wie kann ich das System so bauen, dass es diese Gesellschaft möglichst positiv beeinflusst oder es ihr zumindest erlaubt, zum Beispiel den politischen Diskurs möglichst effizient zu gestalten? Das ist eine völlig neue Art der Mensch-Maschinen-Interaktion."
    ... und die Schnittstelle müssen wir dann lange suchen, denn sind wir Teil der Maschine geworden, nicht mehr als Einzelner, sondern im Kollektiv. Wir haben nicht einmal mehr einen Ausschalter als letztes Interface zur Maschine. Sogar beim Spaziergang im Wald erfasst sie unsere Position und vergleicht sie mit unserer Fortbewegungsgeschwindigkeit gestern und der Position anderer.
    Frieder Nake, der Computerkunstpionier aus Bremen:
    "Also, eine Maschine ist eine Maschine und kann niemals, niemals, auch nicht andeutungsweise mit uns auf irgendeine Höhe kommen, das kann sie nicht, das ist ganz unmöglich.
    Warum? Es gibt einen ganz einfachen Grund: Weil sie nicht im Horizont des Todes existiert. Ende der Durchsage.
    Wir sind geboren und sterben. Maschinen werden gemacht und werden verschrottet. Das ist etwas anderes. Ich wäre nicht überrascht, wenn es Ideologen gibt, die sagen, wir verschrotten jetzt diese Menschen. Ich wäre nicht überrascht."
    Wir müssen in Zukunft viel genauer überlegen, wo wir den Schnitt machen, was wir der Maschine erlauben und was nicht. Das ABS, das sich ohne Rückfrage einfach so unter unser Bremspedal einschlich und das wir nicht mehr loswerden, wird als technische Erfolgsgeschichte gewertet; dass es so sang- und klanglos eingeführt wurde, ohne jegliche Diskussion, wer die Verantwortung im Fahrzeug hat, ist ein abschreckendes Beispiel unverantwortlichen Umgangs mit Technik.
    Roboter, die freundlich und intelligent tun, ein Internet, ein Shoppingportal, ein soziales Netzwerk, das vorgibt, uns besser zu kennen als wir uns selbst kennen, brauchen Skepsis. Keine Technikfeindlichkeit, sondern Bewusstsein.
    Wer mit seinem Smartphone hundert Mal täglich zwischen der analogen und der digitalen Welt hin und her geht, muss wissen, dass er zwischen zwei Welten wandelt. Und bei einer Maschine, die von sich selbst mit "ich" spricht, können wir getrost an die erbärmliche Mensch-Maschinen-Schnittstelle denken, die sich Lautsprecher nennt. Es ist nur ein kleiner dummer Rechner mit einem kleinen dummen Lautsprecher.
    "Ich verstehe nicht, warum das wichtig sein soll."