Archiv


Riskant, weil komplex

Als am 1. Juli 2002 bei Überlingen eine europäische Frachtmaschine und eine russische Passagiermaschine kollidierten, war das auch ein Crash unterschiedlicher Systemphilosophien. Nicht der politischen wohlgemerkt, sondern der technischen Steuerungssysteme. Eine hierarchisch organisierte Fluglotsensteuerung traf auf verteilte maschinelle Intelligenz. Für Techniksoziologen illustriert das Beispiel: Mit dem Komplexitätsgrad eines Systems steigt auch das Risiko für folgenschwere Fehlfunktionen.

Von Bernd Schuh | 06.09.2009
    "Katastrophe. Es funktioniert überhaupt nichts mehr"

    "Der nimmt meine Karte nicht an, der Automat."

    "Ich hab' jetzt auch gerade meinen Zug verpasst."

    "Was ich gehört hab, ist, dass ein Baum umgefallen sein soll."

    "Ich find das zum Kotzen. Dafür, dass die so viel Geld verlangen, und dann so ein Scheiß hier passiert, ehrlich gesagt."

    "Man sollte wirklich durchsagen, wenn es mal klappt."

    "Stundenlang war das Netz ausgefallen, in ganz Deutschland."

    "Dann habe ich versucht. Versucht, versucht"

    "Das hat nicht funktioniert."

    14. Januar 2009. EbuLa, RIS und HAFAS sind ausgefallen. Den erbosten Reisenden, die ebenso verzweifelt wie vergeblich versuchen, Fahrkarten der Deutschen Bahn an Automaten, im Internet oder den Servicecentern zu erstehen, ist es gleich, wie die Computer-Systeme der Bahn heißen. Nichts geht mehr und keiner weiß warum. Es könnte ein Erdbeben in Berlin sein, wo ein Rechenzentrum mit 30.000 Bahn-Servern steht, es könnte ein schusseliger Operator sein, der die Server versehentlich herunterfährt.

    Ein Angestellter, der das System versehentlich herunterfährt, ist jedenfalls die Ursache des Handyausfalls im D1-Netz der Telekom am 21. April dieses Jahres. Bei T-Mobile fallen drei Datenbanken aus. Die Zuordnung von Handynummern zu Mobilfunkantennen ist futsch. Konsequenz für 29 Millionen Nutzer: Fünf Stunden nicht erreichbar sein, nicht simsen und nicht zwitschern können. Schon eine kleine Katastrophe in einer hoch technisierten Gesellschaft. Zumal auch hier zunächst gerätselt wird, was die Ursache ist: ein Hackerangriff? Ein Terroranschlag? Ein Flugzeugabsturz oder Stromausfall?

    "Ich denke schon, dass technische Systeme die auch in unseren Alltag Einzug halten, dazu führen, dass die Welt für uns immer komplexer wird, immer schwerer zu durchschauen wird, weil die Systeme immer multifunktionaler werden, sie können immer mehr, sie regeln viele Dinge automatisch","

    sagt der Techniksoziologe Johannes Weyer,

    ""wir verlieren zunehmend den Überblick, durchschauen nicht mehr, was läuft, sind überrascht, wenn Fehlfunktionen auftreten, und es stellt sich immer mehr das Gefühl ein, die Kontrolle über diese Prozesse zu verlieren."

    Die ganze Nacht über haben Gerichtsmediziner versucht, die bereits geborgenen Toten zu identifizieren.

    Massive Masten knicken um wie Streichhölzer, ganze Landstriche tauchen ein in tiefe Dunkelheit.

    Die traurige Bilanz des Unglücks beträgt jetzt 102 Todesopfer, von denen erst rund 40 identifiziert werden konnten. 57 Schwerverletzte liegen noch in norddeutschen Krankenhäusern.

    Geschäfte Banken und Sparkassen mussten schließen, weil die elektronischen Kassen, Türen und Überwachungssysteme nicht mehr funktionierten.

    180 Anwohner kamen ums Leben. Warum das pilotenlose Frachtflugzeug in der Nähe der australischen Metropole abstürzte, ist noch nicht geklärt.

    Er prallte auf uns auf, ohne Krach. Als ich aufsah fehlte das gesamte Cockpit. Ich drehte mich um, und wo bis eben noch 28 Passagiere in der ersten Klasse saßen, war nichts mehr.


    Willkommen in der Welt hochriskanter Technologien! Während sich unser gesamter technischer Komplex erweitert, schaffen wir Systeme, die die Gefahren für die Bedienungsmannschaften, die Passagiere, zufällig Betroffene sowie für künftige Generationen erhöhen.

    Charles Perrow, 1984 in seinem Buch "Normale Katastrophen".

    Die meisten Hochrisikosysteme weisen einige spezielle Eigenschaften auf, die unabhängig von ihren manifesten Gefahren Systemunfälle zu etwas Unausweichlichem, zu nachgerade "normalen" Unfällen machen. Das hängt mit der Art und Weise zusammen, wie Störungen miteinander Interagieren können und wie das System innerlich verknüpft ist.

    Als der Soziologe Perrow sein Buch schrieb, war Tschernobyl noch nicht geschehen. Aber Perrow hatte den Beinahe-Gau von Harrisburg im Jahr 1979 eingehend analysiert. Und war zu dem Schluss gekommen, dass Kernkraftwerke zu den Hochrisikotechnologien gehören, bei denen sich aufgrund ihrer hohen Komplexität ein schwerer Unfall zwangsläufig nicht vermeiden lässt.

    Das Unglück in Harrisburg begann ganz harmlos mit einer leckenden Dichtung. Dadurch gelangte Feuchtigkeit an ein Ventil zur Steuerung der Speisewasserpumpen. Diese schalteten daraufhin ab. Nun zirkulierte kein Wasser mehr in dem Kreislauf, der die Wärme aus dem Reaktorkern abführt. Notspeisewasserpumpen sprangen an. Die Bedienmannschaft sah das anhand der Instrumente und glaubte alles in Ordnung. Es kam aber kein Wasser in den Kreislauf, weil zwei Ventile klemmten. Ein Messinstrument, das diese Tatsache im Kontrollzentrum anzeigte, war durch einen Merkzettel verdeckt. Temperatur und Druck im Reaktorkern stiegen derweil, weil die erzeugte Wärme nicht mehr abgeführt wurde. Ein weiteres Ventil, das für die Druckentlastung im Reaktorkern wichtig war, schloss nicht wieder. Diesmal war die zugehörige Anzeige im Kontrollraum defekt.

    Die Geschichte ließe sich bis zu ihrem letztlich noch glücklichen Ende mit weiteren Pannen und unvorhergesehenen Zusammenhängen eine Weile fortsetzen. Doch ist sie dreißig Jahre her und schon damals wurde jedem klar, dass Kernkraftwerke hoch komplexe technische Einrichtungen mit einer Vielzahl von ineinander greifenden Komponenten sind, deren Beherrschbarkeit nicht mit letztgültiger Sicherheit garantiert werden kann.

    Charles Perrow steht für eine soziologische Denkschule, für die schwere Unfälle in komplexen technischen Systemen unvermeidbar sind - "normale Katastrophen" eben. Seit den 1980er Jahren hat sich dieser Ansatz als "Normal Accidents Theory" etabliert. Johannes Weyer:

    "Wenn Sie sich das Buch von Charles Perrow anschauen, ,Normale Katastrophen‘, normalerweise müssten solche Hochrisikosysteme scheitern. Fakt ist, wir kennen zwar viele zum Teil auch sehr traurige Fälle des Scheiterns, zum Teil auch sehr dramatische Fälle des Scheiterns, aber es ist nicht so, dass jeden Tag das Stromsystem zusammenbricht, es ist nicht so, dass jeden Tag Flugzeuge kollidieren, und es ist nicht so, dass jeden Tag ein Atomkraftwerk in die Luft geht."

    Aus dieser Erfahrung heraus hat sich eine andere Denkrichtung innerhalb der soziologischen Risikoforschung herausgebildet. Die sagt: alles unter Kontrolle. Es komme weniger auf die Komplexität des technischen Systems an als auf ein erfolgreiches Management desselben. Wo die einen das Risiko sehen, betonen die andern die hohe Zuverlässigkeit neuer Technologien. Weswegen dieser theoretische Ansatz auch "High Reliability Theory" heißt. Weyer:

    "Das kann man nicht wirklich übersetzen. Hochzuverlässigkeitsorganisation klingt komisch, Hochsicherheitsorganisation klingt auch nicht gut, also lassen wir es bei High reliability Organisations. Die nehmen unter anderem die Elektrizitätsversorgung als ein Beispiel dafür, wo man ja einen hohen Level Sicherheit haben will, Stromnetze sollen möglichst nicht oder höchstens ganz, ganz selten zusammenbrechen; das ist eigentlich doch erstaunlich, dass es gelingt jeden Tag den Strom zuverlässig in unsere Steckdosen zu bringen."

    Und das, obwohl - oder vielleicht weil? - seit Harrisburg und dem Aufkommen der "High Reliability Theory" in den 80er Jahren der technische Fortschritt nicht halt gemacht hat. Die Komplexität hat im Gegenteil sogar in zweierlei Hinsicht zugenommen. Zum einen gibt es völlig neuartige Systeme: den computerisierten Börsenhandel, oder Kommunikationsnetze wie den Mobilfunk, die Satellitenortung und das Internet. Und: die Systemkomponenten haben sich verselbstständigt. "Intelligente" Programme kennen den Systemzustand besser als der Mensch, und entziehen ihm Kontrolle. Weyer:

    "Ich denke schon, dass man das sagen kann, dass die Systeme empfindlicher werden, labiler, weil eine Vielzahl von zunehmend automatisch oder autonom agierenden Systemen interagieren, und es immer schwerer wird, diese Systeme auch zu kontrollieren. Dann wird die Technik für mich immer weniger zum Instrument, sie ist für mich immer weniger durchschaubar, immer weniger berechenbar, und da müssen wir davon ausgehen, dass wir in Zukunft in einer Welt leben werden, die ich mal so als hybride Gesellschaft beschrieben habe, weil nicht nur menschliche Entscheider handeln werden, sondern weil autonome technische Geräte mithandeln werden. Ein schönes Beispiel ist der Bremsassistent im Auto, nehmen Sie ABS oder ESP. Sie steuern den Wagen ja gar nicht mehr alleine, sondern es steuert jemand mit, dessen Steuerungsaktivitäten Sie gar nicht mehr bemerken. "

    "Genau, also ich würde jetzt einfach mal sagen, damit Sie eine Vorstellung bekommen vom automatisierten Fahren, dass wir eine kleine Runde durchs Werk drehen, das würde für Sie als Fahrer bedeuten, dass Sie die Möglichkeit hätten, das Fahrzeug zu aktivieren. So, dann würde ich sagen, wir fahren einmal die Runde rum, machen einmal stopp, warten bis das System sich entsprechend bereit hält."

    "Dann müsste ich hier auf den "Ein"-Knopf drücken.."

    "Ganz genau. So und jetzt ruhig mal etwas langsamer fahren, und ich würde Sie bitten, den Einschalter zu drücken."

    "Hab ich gemacht. System übernimmt"

    "Sie können dann in diesem Moment, das werden Sie auch spüren, an der Fahrzeugreaktion, Sie können die Hände vom Lenkrad nehmen und auch die Füße von den Pedalen nehmen."

    Wie von Geisterhand dreht sich das Lenkrad, gespenstisch bewegen sich die Pedale unter den Füßen weg. Ich fühle mich nicht annähernd so komfortabel wie ich sitze. Gut dass Ina Petermann bei VW in Wolfsburg die Versuche mit den autonomen Fahrzeugen psychologisch betreut.

    "Ja, am Anfang ist das so, aber das Fahrzeug wird entsprechend reagieren, es blinkt sogar, alles da, was man kennt."

    Fußgänger kreuzen die Fahrbahn, ziemlich knapp passiert der Wagen einen am Straßenrand stehenden Transporter, der beladen wird. Ob der elektronische Kopilot das erkennt? Ina Petermann:

    "Das wird das Fahrzeug erkennen, weil die entsprechende Sensorik vorne und hinten auch angebracht ist. Da hab ich volles Vertrauen, es sind schon viele Studien mit dem Fahrzeug gelaufen, und das klappt wunderbar."

    Autos, die selbstständig fahren, sind keine Zukunftsvision mehr. Letztlich ist das autonome Fahrzeug nicht mehr als eine konsequente Weiterentwicklung der Fahrhilfen und Assistenten, die heute schon bremsen, warnen, und Kurs halten, wenn es brenzlig wird.

    "Ein nächster Schritt, den man sich vorstellen kann, ist schon ein Fahren im Stau, wo Ihnen bestimmte Funktionen abgenommen werden, wir haben jetzt auch schon in manchen Fahrzeugen in Serie Abstandsregelsysteme, was auch schon automatisch bis zum Stillstand bremst."

    Markus Lienkamp entwickelt beim Volkswagen Konzern die automobile Zukunft.

    "Eine weitere Stufe ist, dass das System auch schon automatisch wieder anfährt, das heißt Sie müssen im Stau nicht immer dieses stop and go mitmachen, sondern das System erledigt das für Sie, man kann sich eine weitere Stufe vorstellen, wo dann auch die Lenkung mit übernommen wird, das heißt im Stau können Sie sich dann relativ entspannt auch mal ein Stückchen fahren lassen, vielleicht am Anfang nur bei sehr geringen Geschwindigkeiten."

    Johannes Weyer:

    "Ich mache gerade Erfahrungen, weil ich ein ziemlich neues Auto habe. Ein Auto was voll gestopft ist mit solchen Funktionen, ich beobachte an mir selbst die Zumutungen, die mir ein derart hoch automatisiertes Auto auferlegt. Meine Verhaltensweisen stellen sich um. Und ich muss ganz offen gestehen, ich habe jetzt mehrfach schon vor meinem Auto gestanden und kriegte die Tür nicht auf, weil ich nicht aufgeschlossen hatte. Weil ich mittlerweile davon ausgehe, das Auto kann ja alles selbst."

    Das autonome Fahrzeug ist nur eine von vielen Systemkomponenten in einem großen Gesamtsystem namens Straßenverkehr, hoch verdichtet, verzweigt, komplex. Wie lässt sich ein solcher Moloch steuern, ohne dass es zum häufigen Ausfall von Teilsystemen oder zum völligen Zusammenbruch kommt? Weyer:

    "Der Traum der Straßenverkehrsplaner ist es schon, den Verkehr etwas mehr zu kontrollieren. Was man zum Beispiel mit planwirtschaftlichen Methoden machen kann, also sie müssen dann zum Beispiel anmelden, ob Sie morgen das Auto benutzen, und würden dann eine bestimmte Strecke freigegeben bekommen; die eigentliche Pointe ist aber, dass man von solchen planwirtschaftlichen Methoden wegkommt, in dem Moment wo die Verkehrsteilnehmer immer intelligenter in Anführungszeichen werden. Konzepte, die verstärkt in die Freiheit des einzelnen eingreifen, indem sie über elektronische Mittel den einzelnen Verkehrsteilnehmer steuern, zum Beispiel einzelne Strecken sperren, oder verteuern, oder ins Motormanagement eingreifen und das Auto einfach stilllegen. Das ist heute alles Stand der Technik und wird in wenigen Jahren kommen. Es gibt auch die Möglichkeit der dezentralen Koordination der Autos untereinander, also das elektronische Warnblinken zum Beispiel: ein Auto gerät auf Glatteis, gibt diese Information an die nachfolgenden Fahrzeuge weiter, damit diese rechtzeitig bremsen können."

    Car to Car Communication - C2C geschrieben - heißt dieses Assistenzsystem. Es steht kurz vor der Serienreife. Damit entwickelt sich der Verkehr der Zukunft weg von den alten Modellen zentraler Steuerung hin zu einem selbstorganisierten System, in dem die einzelnen Fahrzeuge ihren Kurs selbst aushandeln und den Verkehrsfluss damit steuern. Weyer:

    "Das ist Stand der Forschung, dass selbstorganisierte Systeme eine hohe Flexibilität besitzen. Hierarchische Systeme sind unschlagbar effizient in stabilen Umwelten. Sobald die Situation unsicherer wird, sind selbstorganisierte, adaptive Systeme von Vorteil, vor allem in turbulenten, instabilen, unsicheren Umwelten. Die Frage ist immer, wie überträgt man das auf Hochsicherheitssysteme. Kann ich da einfach sagen, wir lassen es alles mal frei fluktuieren und probieren mal aus? Es geht ja um einen hohen Level von Sicherheit im Bereich der Energieerzeugung, des Verkehrs, und so weiter. Da stoßen solche Konzepte zum Teil an ihre Grenzen. Ich will ja nach wie vor auf einem hohen Level von Sicherheit steuern."

    Im Bahnhof von Münster sind heute mittag zwei Nahverkehrszüge zusammengestoßen.

    Er prallte auf uns auf, ohne Krach.

    57 Schwerverletzte liegen noch in norddeutschen Krankenhäusern.

    Ich kann Ihnen nur sagen, dass dieses Unglück sich ereignet hat gegen elf Uhr auf der Strecke Hannover Hamburg..

    Dadurch erhielt der Zug dann eine Zwangsbremsung...gleichwohl hat diese Zwangsbremsung offensichtlich nicht mehr ausgereicht..

    Die angrenzenden Schienenstränge sind verbogen. Es stinkt nach verbranntem Heizöl.
    Ob das nun menschlicher Art oder technischer Art gewesen ist, das muss man erst mal überprüfen.


    "Also, im Schienenverkehr ist es früher ein extrem stark zentralistisches System gewesen, das sehr auf Sicherheit bedacht war, zum Glück, muss man natürlich sagen, und die einzelnen Zugführer hatten praktisch keine Autonomie, die fuhren nach Fahrplan. Und man hat sehr, sehr große Sicherheitsabstände eingehalten. Mittlerweile hat man diese Sicherheitsabstände aufgelöst, weil man ja auf elektronische Sicht fährt und zwischen den Zügen kommuniziert, so dass man also wesentlich dichter aneinander heranfahren kann, die ICEs haben einen Bremsweg von 7 km, und fahren im Abstand von 2 km hintereinander her. Die werden mehr oder minder ferngesteuert. Da sitzt halt vorne noch einer für alle Fälle, damit Sie einsteigen."

    "Sie sehen hier auf zwei Bildschirmen die Streckendarstellung und die Darstellung von Knoten, auf denen wird der Fahrplan dargestellt, die Züge bewegen sich praktisch auf roten und blauen Punkten, über die Bildschirme von Bahnhof zu Bahnhof, und in den Knoten wird angezeigt, ob es Verspätungsübertragungen gibt zwischen den Zügen, untereinander."

    In der Netzleitzentrale der Deutschen Bahn AG in Frankfurt ist ein notgebremster ICE nicht mehr als ein roter Punkt auf einem Bildschirm. An sechs Bildschirmarbeitsplätzen in einem dämmrigen Großraumbüro haben hier die so genannten Disponenten das Bahnnetz der gesamten Republik im Blick. Rund 35.000 Schienenkilometer, 6000 Bahnhöfe und Haltepunkte, abgebildet als Knoten und Maschen eines gigantischen Transportnetzes. 800 Fernzüge übermitteln ihre Position per Funk an diese Zentrale.

    "Hier haben wir unseren Netzwerkperformancemonitor, und hier sehen wir schon mal, wo überall die Welt in Ordnung ist, überall wo grün ist, da gibt es also keine Probleme, hier z.B. da ist eine Lampe gelb, da ist also irgendeine Komponente bei, die ein kleineres oder größeres Problem hat."

    Das große Schienennetz sieht bei näherer Betrachtung aus wie ein lockerer Flickenteppich aus dicht geknüpften Teilnetzen. Die sind um die großen Verbindungsknoten in den Großstädten herum gestrickt.

    "Ich habe natürlich Schnittstellen in den Norden, in den Süden, in den Westen, in den Osten, also in alle Richtungen im Prinzip. Deswegen gibt es ja den Eisenbahnerspruch, wenn ich an dem Netz hier oben irgendwo zubbele in Flensburg, dann merke ich in Passau noch die Auswirkungen."

    Derlei Empfindlichkeit ist typisch für komplexe Systeme. Es ist nur eine Frage der Zeit, wann auch im Massenverkehr der Bundesbahn die Kontrolle an autonome Agenten übergeht, die Daten austauschen und über eine computerisierte Netzzentrale optimierte Fahrpläne in Echtzeit errechnen und befolgen. So verschieden die Verkehrssysteme auch sind, die Trends sind gleich: Dezentrale maschinelle Intelligenz übernimmt zunehmend die Kontrolle.

    Hätten im Kontrollraum zum Unglückszeitpunkt zwei Lotsen gearbeitet

    Die Trümmer der Tupolew liegen weit verstreut, zum Teil in sumpfigem, schwer zugänglichen Gebiet

    wäre die Flugzeugkatastrophe von Überlingen mit an Sicherheit grenzender Wahrscheinlichkeit vermieden worden.


    24. Februar 2004, kurz nach 6 Uhr abends. Es ist kalt in Kloten, der Siedlung am Züricher Flughafen. Im Rebweg 24 klopft ein Mann an die Terrassentür von Peter Nielsens Haus. Dessen Frau öffnet, ruft ihren Mann. Der wähnt einen Verwirrten vor sich, mit einem Foto in der Hand. Und einem Messer. Kurz darauf ist Peter Nielsen tot. Der Mörder Vitali Kalojew, lässt sich noch im Flughafenhotel widerstandslos festnehmen. Er fühlt sich nicht schuldig, er hat nur Rache genommen.

    Hätten im Kontrollraum zum Unglückszeitpunkt zwei Lotsen gearbeitet, wäre die Flugzeugkatastrophe von Überlingen mit an Sicherheit grenzender Wahrscheinlichkeit vermieden worden.

    Die tragische Vorgeschichte dieses Mordes spielt sich am 1. Juli 2002 in 11.000 Meter Höhe über dem Bodensee bei Überlingen ab. Eine russische Passagiermaschine auf dem Weg nach Barcelona und ein europäisches Frachtflugzeug kollidieren im ansonsten völlig freien Luftraum. Niemand überlebt das Unglück, es gibt 71 Tote, 56 davon Kinder. Zwei dieser Kinder heißen Konstantin und Diana Kalojew. Der Fluglotse, der die russische Maschine in die falsche Richtung schickt, ist Peter Nielsen. Johannes Weyer:

    "Dieser tragische Zusammenstoß zweier Flugzeuge in Überlingen ist darauf zurückzuführen, dass wir in der Luftfahrt zwei verschiedene Sicherungssysteme haben. Wir haben das alte traditionelle System der Fluglotsen, und die Russen hatten gelernt im Zweifelsfalle hat der Fluglotse immer Recht, das ist die klassische Logik der 60er Jahre, dass der Fluglotse immer das letzte Wort hat."

    Über Überlingen prallen auch zwei verschiedene Systeme der Verkehrssteuerung aufeinander. Einmal das alt hergebrachte, ein hierarchisch organisiertes Sicherungssystem mit klaren Entscheidungs- und Befehlsstrukturen. Der Lotse hat den Überblick und das Sagen. Weyer:

    "Daneben hat man ein zweites System entwickelt, TCAS heißt das, der Seitenaufprallschutz der Luftfahrt, so dass im letzten Moment noch ein Lämpchen angeht, wenn der Fluglotse etwas übersehen hat. Das ist ein System, das von einer anderen Logik ausgeht, nämlich davon, dass die beiden Flugzeuge mit Transpondern ausgestattet sind, die wechselseitig Informationen austauschen, so dass die Rechner an Bord berechnen können, ob es eine Kollisionsgefahr gibt, und sich automatisch darüber abstimmen, ohne dem Fluglotsen Bescheid zu sagen, die Flugzeuge stimmen sich in der Luft autonom miteinander ab, und die amerikanischen und deutschen Piloten hatten gelernt, dass im Zweifelsfall, wenn TCAS anspricht, dass man stur und blind TCAS folgt. Leider haben die Russen auf den Fluglotsen gehört, und die anderen Piloten haben auf das TCAS gehört, und dann ist das passiert, was statistisch eigentlich sehr unwahrscheinlich ist, dass nämlich nachts im leeren Luftraum zwei Flugzeuge zusammengestoßen sind."

    Mittlerweile gehört der Luftraum außerhalb der dicht frequentierten Flughäfen dem TCAS System. Der Pilot hat auf Automatik geschaltet, das System rechnet vor sich hin, der Bordcomputer unterhält sich mit seinen vorbei fliegenden Kollegen und verlässt sich auf seine Sensoren und Messgeräte. Und ist verlassen, wenn diese nicht korrekt funktionieren. Weyer:

    "Wie geht das jetzt weiter? Wird man die Fluglotsen nach Hause schicken und dieses System auflösen? Oder wird man zu einer Koordination der beiden Systeme kommen, des alten und des neuen, trotzdem ist immer die Frage, wer hat das letzte Sagen? Eine dritte Denkmöglichkeit wäre natürlich, die Piloten nach Hause zu schicken, also die Flugzeuge unbemannt fliegen zu lassen und von einer Zentrale aus steuern zu lassen. In der Frachtfliegerei werden wir in zehn Jahren unbemannte Flugzeuge haben nach Einschätzung von Experten."

    Und dann? Wird dann die Katastrophe zum Normalfall, wie es die "Normal Accidents Theory" vorhersagt? Oder ist und bleibt der Luftverkehr ein "High Reliability-System" wie Atomkraftwerke oder die Elektrizitätsversorgung?

    Wir mussten alle Kühltheken und Gefriertruhen leeren. Nach 24 Stunden war alles vergammelt. Wir versuchen das jetzt einfach zu vergessen.

    Massive Masten knicken um wie Streichhölzer, ganze Landstriche tauchen ein in tiefe Dunkelheit.

    17:32 Uhr, weiß ich noch ganz genau, fiel also der Strom aus.

    Ein Kühlschrank hat offenbar weite Teile der nordrhein-westfälischen Stromversorgung für Stunden lahmgelegt.

    Der Inhalt schwedischer Tiefkühltruhen überstand den Stromausfall weitgehend unbeschädigt.

    Uns steht jetzt die vierte Nacht ohne Strom und Heizung bevor. Und der Gedanke daran ist einfach der Horror.

    Das Gerät hatte Störimpulse an den Hauscomputer gesendet, der speiste Notsignale in das lokale Verteilnetz ein.

    Ein Kabel nach Deutschland und eins nach Polen war aus Instandhaltungsgründen außer Betrieb, das ist ganz normal.

    Geschäfte Banken und Sparkassen mussten schließen, weil die elektronischen Kassen, Türen und Überwachungssysteme nicht mehr funktionierten.

    Wie endlich das Licht anging, die Leute haben teilweise hier mit Tränen gestanden, geklatscht, überglücklich.

    Daraus folgte akuter Strommangel und die Kettenreaktion.


    Auch im Strommarkt kämpfen überkommene hierarchische Steuerungsstrukturen gegen flexible lokale Netze. Weyer:

    "Der Strommarkt befindet sich insofern im Wandel, als wir immer neue Erzeuger haben, die dezentral ins Netz mit eingebunden werden, und gleichzeitig die großen Stromkonzerne versuchen, ihre Monopole zu wahren, das führt zu neuen Formen der intelligenten Verknüpfung solcher unterschiedlichen Steuerungsmodi. Da entwickeln sich so neue Steuerungsformen, die ich mit dem Begriff des mixed government versucht habe zu beschreiben."

    Intelligente Stromzähler gibt es schon. Sie zeigen den Verbrauch stundenweise an, ermitteln Zeiträume hohen und niedrigen Konsums. Demnächst werden sie sich im lokalen Energiemarkt die günstigsten Angebote holen. Computer werden damit zu autonomen Entscheidern im Haus, sie werden sich absprechen, Bedarfsmengen und Preise, und das optimale Angebot und die optimale Versorgungsstruktur aushandeln. Der Markt steht vor der Tür, die Hierarchie muss weichen. Weyer:

    "Da entsteht etwas Neues, was erst in Ansätzen für mich erkennbar ist, aber offenbar experimentiert man in vielen Feldern, im Strommarkt, im Verkehrsbereich mit neuen solchen Formen einer mixed governance, also gemischten Steuerungs Formen, die versuchen die Vorteile von Markt und Hierarchie miteinander zu verknüpfen. Und die spannende Frage ist, ob auch unter diesen Bedingungen der Deregulierung der Strommarkt noch mit der hohen Zuverlässigkeit funktionieren kann, und die erstaunliche Antwort ist: Es geht. Aber es ist riskanter geworden. Der Strommarkt ist vielschichtiger geworden, und es sind andere Interessen mit rein gekommen. Am Strommarkt kann Geld verdient werden, auch von Leuten die an Strom gar kein Interesse haben."

    Einen Vorgeschmack auf das Risiko, das mit Flexibilisierung und Selbstorganisation einhergeht, kann der Kapitalmarkt bieten. Die Volkswirtin und Soziologin Ekaterina Svetlova an der Zeppelin University Friedrichshafen hat in einer Interviewstudie die Komplexität der Finanzmärkte untersucht. Die Akteure dort, Portfoliomanager, Broker und Banker, versuchen, die Entwicklung des Marktes vorherzusagen. Doch jeder entwickelt dazu seine eigenen Instrumente.

    "Die müssen die Komplexität für sich selbst reduzieren, sonst können sie gar nicht am Markt agieren. Einige Anleger achten nur auf bestimmte Inflationszahlen, andere gucken nur Arbeitslosenzahlen an, sie benutzen unterschiedliche Informationsquellen, einige sprechen mit Analysten, andere finden Gespräche mit Analysten absolut sinnlos, die können nicht alle Daten berücksichtigen, die zur Verfügung stehen."

    Der Versuch, die Komplexität des Systems zumindest subjektiv zu reduzieren, ist dem Verhalten eines Piloten vergleichbar, der in gefährlichen Situationen nicht auf 300 Instrumente achtet, sondern sich auf die drei wesentlichen konzentriert. Im Unterschied zum Piloten aber weiß am Finanzmarkt niemand, welches die wesentlichen Indikatoren sind, ob es sie überhaupt gibt. Ekaterina Svetlova kommt zu dem paradox erscheinenden Ergebnis, dass der Versuch der Finanzmarktakteure, Komplexität zu verringern, diese im Gegenteil steigert, und damit letztlich den Markt erhält.

    "Wenn alle eine gleiche Entscheidungsregel im Markt benutzen würden, würden alle Marktteilnehmer gleich handeln. Die würden dann alle entweder Käufer oder Verkäufer und es gäbe dann keinen Markt mehr. Deswegen ist es gut, dass Märkte komplex sind. Weil Komplexität die Märkte erst ermöglicht."

    In Gefahr gerät der Markt erst dann, wenn alle oder zu viele Marktteilnehmer nach den gleichen Kriterien handeln. Eine Gefahr, die besteht, wenn man die Anlageentscheidungen Automaten überlässt. Computergestützte Modelle zur Bewertung des Marktes und zum Handel mit Papieren, das so genannte quantitative Portfoliomanagement machte 2004 schon 50 Prozent an der New Yorker Börse aus, 25 bis 30 Prozent waren es in Europa. Wenn Computer allein entscheiden und alle mit dem gleichen Modell arbeiten würden, könnten sie - wie im Kleinen schon gehabt - das System zum Absturz bringen. Svetlova:

    "Das Problem ist noch nicht sehr akut. Die Gefahr, dass durch computergesteuerte Programme der Markt zerstört wird, die Gefahr besteht heute noch nicht wirklich. Das ist so, weil jedes Investmenthaus seine eigenen Modelle entwickelt, die verlangen auch menschliche Vorentscheidungen. Außerdem gibt es qualitative Faktoren, die sehr stark die Wertentwicklung der Wertpapiere beeinflussen, zum Beispiel die Managementqualität eines Unternehmens, der Wert einer Marke, Corporate Government, das sind Faktoren die aufgenommen werden müssen, die können aber nicht eindeutig quantifiziert werden. Deswegen spielt hier ein subjektiver Faktor wieder eine Rolle."

    Möglicherweise liegt die Hauptgefahr komplexer Systeme mit maschineller Intelligenz in der Undurchschaubarkeit ihrer Entscheidungsstrukturen. Ein Netz autonomer Teilnehmer mit gelegentlichen zentralen Eingriffen erzeugt wechselseitige Abhängigkeiten und Rückkopplungen in einem Ausmaß, das weder vorhersehbar noch von Menschen kontrollierbar ist. Weyer:

    "Die wichtigste Maßnahme, Sicherheit zu gewährleisten, das zeigt die Forschung zu High-Reliability-Systemen, ist die Fähigkeit in unterschiedlichen Steuerungsmodi arbeiten zu können. Der Routinebetrieb wird weitgehend in einem bürokratischen hierarchischen Modus abgewickelt, und wenn dann ein Hochleistungsmodus gefragt ist, also eine besondere Situation dichter Aktivität, dann löst sich das Ganze eher in dezentrale Teams auf. Und es gibt noch so eine Art Notfallmodus, in den man zurückfällt, wenn das System an den Rand gerät. Das ist dann im Energiebereich ein gezielter Lastabruf, in der Luftfahrt, das hatten wir nur ein einziges Mal, nämlich am 11. September, holt man alle Flugzeuge einfach runter, und sagt wir legen das System einfach still."

    Welche Rolle dem Menschen in den komplexen technischen Systemen der Zukunft noch bleiben wird, ist eine der großen offenen Fragen.