Archiv

Manuela Lenzen
"Künstliche Intelligenz. Was sie kann & was uns erwartet"

Selbstfahrende Autos, Kühlschränke, die Lebensmittel ordern oder Sprachsysteme wie Siri, die unsere Fragen beantworten. Daten und Algorithmen sind Teil unseres Lebens. Ob sie es irgendwann beherrschen, liegt nach Ansicht der Wissenschaftsjournalistin Manuela Lenzen ganz in unserer Hand.

Von Katja Scherer |
    Illustration Künstliche Intelligenz
    Die Debatte um Roboter und selbstlernende Algorithmen schwankt zwischen Panik und Euphorie (imago)
    "Kann der Gott der Zukunft ein Computer sein?" oder "Ist die Künstliche Intelligenz die Rettung des Klimas?": Solche Überschriften finden sich derzeit fast täglich in deutschen Medien. Die Debatte um Roboter und selbstlernende Algorithmen schwanke zwischen Panik und Euphorie, attestiert daher die Philosophin Manuela Lenzen in ihrem Buch "Künstliche Intelligenz". Und das oft auf Basis von Halbwissen:
    "Die schöne neue Technikwelt präsentiert sich derzeit verwirrend und bedrohlich. Berechtigte Sorgen, Science-Fiction, ein gehöriger Schuss Lust an der Katastrophe und vor allem ganz verschiedene technische Dinge gehen dabei oft mächtig durcheinander. Sie machen die Künstliche Intelligenz zu einem Heilsbringer oder einem Angst-Gegner. Beide lähmen, erscheinen aber auch größer, als sie sind."
    Lenzens Buch ist daher ein Appell für mehr Sachlichkeit in der Technologie-Debatte. Ihr simples Credo an Politik, Medien und Öffentlichkeit lautet: "Kommt mal wieder auf den Teppich!"
    Wenige Geräte sind wirklich "smart"
    Ihr Buch ist in zwei Teile gegliedert: Eine Bestandsaufnahme und eine Zukunftsvision. Im ersten Teil versucht Lenzen, all die Cyborgs, Cobots und Super-Algorithmen, die derzeit die Öffentlichkeit beunruhigen, wissenschaftlich einzuordnen. Was können sie und wie schlau sind sie wirklich? Eine Aufgabe, die gar nicht so einfach ist, denn was genau mit "Künstlicher Intelligenz" gemeint ist, sei selbst in der Forschung bisher nicht klar definiert, schreibt Lenzen:
    "Diese beiden Wörter stehen heute für ein weites, interdisziplinäres und wenig übersichtliches Gebiet, auf dem Forscher mit ganz unterschiedlichen Fragestellungen und Methoden daran arbeiten, Systeme zu entwickeln, die (…) Sprache verwenden, Begriffe bilden, Probleme lösen."
    Viele Dinge, die heute als 'smart' verkauft werden, sind es nach dieser Definition gar nicht. Ebenso wenig wie ein Taschenrechner schlau ist, weil er Gleichungen schneller lösen kann als ein Mensch, ist demnach eine Kaffeemaschine intelligent, nur weil sie einen Internetanschluss hat. Man gibt Daten ein, die Maschine folgt einem Befehl - fertig.
    Anders verhält es sich dagegen mit lernenden Systemen wie künstlichen neuronalen Netzen, kurz KNN. Das sind Netzwerke, in denen Forscher unzählige Datenverarbeitungseinheiten, sogenannte Neuronen, zusammenschließen. Solche KNN können inzwischen eigenständig lernen, Hunde von Katzen zu unterscheiden - ohne dass ihre Macher genau wissen, wie sie es tun:
    "Die Verbindungsstärken zwischen den einzelnen Knoten zu prüfen wäre nicht nur zeitintensiv, außer einer langen Liste nichtlinearer Gleichungen würde es auch nicht viel bringen. Die KNN funktionieren auf eine Weise, die dem Menschen nichts sagt. Nicht ohne Grund heißen sie auch Black-Box-Systeme."
    Aktiv Grenzen für Künstliche Intelligenz setzen
    Die schöne neue Technikwelt als Black Box, das klingt in der Tat beunruhigend. Aber heißt das auch, dass sich die Systeme irgendwann verselbstständigen können - womöglich sogar, ohne dass wir es merken? Wohl kaum, sagt Lenzen:
    "Diese Idee, dass die Künstliche Intelligenz sich die Kontrolle nimmt, dass sie also aus dem Bereich, für den sie programmiert ist, heraustritt und sich überlegt, was könnte ich denn noch anstellen, wie könnte ich die Menschheit zu Büroklammern verarbeiten oder etwas Ähnliches, das ist nicht zu sehen."
    Ob Künstliche Intelligenz unser Leben zum Guten oder zum Schlechten verändern wird, liegt in unseren Händen. Wir können sie nutzen, um Ärzte bei der Suche nach Tumorerkrankungen zu unterstützen. Wir können sie aber auch nutzen, um neuartige Waffensysteme zu entwickeln. Ebenso sei es uns überlassen, in welchem Umfang wir die Kontrolle abgeben, sagt Manuela Lenzen: Die künstliche Intelligenz nimmt sich die Macht nicht. Wir übergeben sie ihr."
    Was der Entwicklung noch fehlt
    Wie Künstliche Intelligenz unsere Gesellschaft verändern könnte, zeigt der zweite Teil von Manuela Lenzens Buch. Dabei wird deutlich, dass ihr Einsatz in verschiedenen Teilbereichen wie Medizin oder Wohnen fast nie eindeutig "gut" oder "schlecht" ist. Oft ist das, was herauskommt, ein Paradoxon: Wir nutzen Smart Meter zum Stromsparen, verbrauchen aber gleichzeitig durch all unsere Elektronik mehr Strom denn je. Wir laufen Gefahr in sozialen Netzen in Filterblasen zu geraten und haben doch mehr Zugang zu Informationen als je zuvor. Die große gesellschaftliche Gefahr der kommenden Jahre sei dabei nicht die Entstehung einer künstlichen Super-Intelligenz, schreibt Manuela Lenzen. Das größte Risiko sei, dass wir unseren gesunden Menschenverstand vernachlässigen:
    "Menschen neigen dazu, maschinellen Entscheidungen eine gewisse Autorität zuzubilligen, die ihnen vielleicht nicht unbedingt zukommt."
    Künstliche Intelligenz sei eben immer nur so smart, wie die Algorithmen und Daten, auf denen sie basiere. Zudem beruhe ein Großteil der menschlichen Intelligenz auf sozialer und emotionaler Intelligenz, auf der Fähigkeit des Mitfühlens und ethischen Handelns - und dafür gibt es bisher noch keinen Algorithmus.
    Manuela Lenzen: "Künstliche Intelligenz. Was sie kann & was uns erwartet",
    C.H. Beck, 272 Seiten, 16,95 Euro.