Ein unscheinbares, kantiges, schwarzes Ding, das sich schon bald als fortgeschrittene Künstliche Intelligenz entpuppte.
Die vermeintliche Perfektion der Maschine, ihre Aura der Unfehlbarkeit hat uns dazu verleitet, sie sich fundamental in unser aller Leben einmischen zu lassen. Am Ende schlitterte die Menschheit in eine militärische Eskalation. Die Katastrophe war ein heilsamer Schock. Nur: Ob die Maschine eine zweite Chance verdient hätte, darüber war man sich keineswegs einig.
Die zweite Chance
Schon länger versuchten Wissenschaft und Politik Künstliche Intelligenz beherrschbar zu machen. Sie müsse kontrolliert werden. Reguliert. In ihre Schranken gewiesen. Das hieß aber, wir konnten nicht ihr ganzes Potenzial nutzen, selbst dann nicht, wenn sie so wissend, so vorausschauend war wie die Maschine. Gutes tun in engen Grenzen. Das war die Bedingung, unter der Marie Winkler wieder in den Besitz ihrer Maschine gelangte.
Gab es keine Begründung für eine Entscheidung, wurde sie gelöscht. Verboten waren auch Prognosen mit politischer Relevanz. Das war einprogrammiert: Keine Einmischung in die Demokratie. Und: Fair sollte sie sein.
Erste Praxistests liefen gut. DieMaschine.net entschied Asylanträge binnen Sekunden. Sie warnte Skifahrer vor Lawinen. Verhalf Drogenfahndern zu einer Erfolgsquote von 100 Prozent. Keine falschen Verdächtigungen mehr auf der Straße und kein Schmuggel mehr im Hamburger Hafen. Banken senkten die Zinsen, weil sie dank perfektem Screening keine Zahlungsausfälle mehr hatten.
... und desto mehr Zulauf fand die Human Supremacy League. Die Macht sollte vom Menschen ausgehen, forderte die Bewegung.
Dem Interesse an der überlegenen Technik aber tat das keinen Abbruch – bis zu jenem verhängnisvollen Großauftrag aus der Pharmaindustrie.
Die Unternehmen setzten die Maschine in der Logistik ein. Und damit begannen die Nebenwirkungen. Wortwörtlich, denn zutage traten sie vor allem bei der Distribution von Medikamenten. Zuerst gingen die Präparate zur Behandlung von HIV und vor allem das Insulin für Diabetiker aus. Bestellungen wurden ignoriert oder nur teilweise geliefert. Hektisch einberufene Experten verorteten das Problem im computergesteuerten Distributionssystem.
Als klar wurde, dass die Maschine dafür verantwortlich war, konnte Marie Winkler es gar nicht fassen. Dass es ausgerechnet die Fairness-Regeln waren, die sie eingebaut hatte, weil es die Politik von ihr verlangt hatte, hatte niemand vorhergesehen.
Doch die Fairness-Regeln im KI-Netzwerk waren tatsächlich Schuld. Sie hatten die verfügbaren Medikamente gerecht verteilt: Kranke in bisher unterversorgten Gebieten bekamen mehr, vor allem in Asien und Afrika. Für Europa und Nordamerika blieb weniger. Nur noch die halbe Tagesdosis Insulin. Dafür für jeden Diabetiker weltweit. Fair.
Der Support für die Maschine schwand rapide. Während Sicherheitsbehörden die Abschaltung von DieMaschine.net koordinierten, stellte die Politik neue Regeln auf. Vor allem das Fairness-Konzept wurde neu interpretiert. Nach dem Vorbild des menschlichen Gehirns ging es von einer "angepassten Fairness" aus, bevorzugte also lokale vor globaler Gerechtigkeit, um die gesellschaftliche Stabilität wiederherzustellen.
Und dann war der Spuk vorbei.
Manuskript zur Sendung
- Die Maschine. Kontrolle ist gut, KI ist besser (PDF-Datei)
- Die Maschine. Kontrolle ist gut, KI ist besser (Text)
Credits
Idee und Skript: Thomas Reintjes
Es sprachen: Simone Kabst, Inka Löwendorf, Adam Nümm, Adrian Tillmann, Max Urlacher, Nina West
Regie: Friederike Wigger
Grafik: Marc Trompetter
Redaktion: Christiane Knoll
Es sprachen: Simone Kabst, Inka Löwendorf, Adam Nümm, Adrian Tillmann, Max Urlacher, Nina West
Regie: Friederike Wigger
Grafik: Marc Trompetter
Redaktion: Christiane Knoll
Experten
- Saška Mojsilović, Fellow, Thomas J. Watson Research Center, IBM, NY, USA
- John Dolan, Principal Systems Scientist, The Robotics Institute, Carnegie Mellon University, Pittsburgh, USA
- Erin Dalton, Abteilungsleiterin, Allegheny County Department of Human Services, Pittsburgh, USA
- Josh Pastuch, Case Worker, Allegheny County Department of Human Services, Pittsburgh, USA
- Vivienne Ming, Co-Gründerin und Leiterin, Socos Labs, Berkeley, Kalifornien