Auf dem Werksgelände der Zelle finden sich Kanalsysteme, Schleusen, eigene Kraftwerke, Energiespeicher, Eiweißfabrken und Produktionsanlagen für Spezialprodukte. All das gibt es in zehn-, hundert- teilweise tausendfacher Ausführung. Nur eins ist in jeder Zelle einzigartig: die Daten- und Steuerzentrale, der Zellkern mit der Erbinformation. Hier lagert, verpackt in einem Riesenmolekül, der DNS, und mit Hilfe von nur vier chemischen Buchstaben verschlüsselt, die genetische Essenz jedes Lebewesens. A,C,G,T, tausendfach, millionenfach. Der Text des Lebens hat beim Menschen gut drei Milliarden Buchstaben, bei anderen Organismen sind es weniger oder ähnlich viele. Dieser Text ist mittlerweile gelesen. Das so genannte Human Genom Projekt lieferte zwar so etwas wie die genetische Enzyklopädie des Menschen, sie hat auch in etwa den Umfang der Encyclopedia Britannica, doch im Gegensatz zu dieser nur den trockenen Charme einer Betriebsanleitung, und sie ist überdies bislang weit gehend unverstanden.
Was jetzt nicht zeitlich, sondern wissenschaftlich nach dem Genomprojekt kommt, das ist der Übergang vom Genom als Informationsspeicher zur funktionierenden Maschinerie der Zelle.
Bioinformatik-Professor Robert Giegerich liefert das Schlüsselwort für die Frage, was nun nach der Entschlüsselung des Genoms ins Zentrum der Aufmerksamkeit gerückt ist: die gesamte "Maschinerie" der Zelle. Sie erst sorgt dafür, dass die abstrakte genetische Information im Zellkern konkret wird. Die Chemiefabrik Zelle übersetzt die Gene in Proteine, deren Wirken und Zusammenwirken erst die Eigenschaften der Zelle und damit letztlich des gesamten Organismus bestimmen. Wie und was dabei im einzelnen und im ganzen abläuft ist Gegenstand aktueller Forschung.
Nehmen wir den Einzeller, da möchte man wissen, wie Gene gesteuert werden, wie werden die Gene exprimiert, wie wird die Menge hoch und runter gefahren, wie lange leben die Botschafter in der Zelle, wie lange leben die Proteine, wer bremst wen?
Zwei Ansätze zur Aufklärung der Abläufe in der Zelle gibt es derzeit, die sich quasi von zwei verschiedenen Enden eines Spektrums einander nähern. Der klassische molekularbiologische Ansatz beginnt mit dem Wissen über das Genom und versucht einzelne Gene und die zugehörigen Proteine und deren Wirkung zu identifizieren. Am anderen Ende des Spektrums steht das Verständnis des Gesamtsystems; die Betriebsabläufe des gigantischen Industrieunternehmens Zelle sollen in ihrer Gesamtheit verstanden werden. So weit, dass man detaillierte Aussagen über materiellen Input und Output des Unternehmens machen kann. Schon der Umriss der Aufgabenstellung macht deutlich, dass hier andere Methoden zum tragen kommen werden als rein biologische.
Am Max-Planck-Institut für Dynamik komplexer technischer Systeme in Magdeburg wird dieser neue Ansatz verfolgt. Das Feld heißt Systembiologie, einer seiner Mitbegründer ist Ernst-Dieter Gilles.
Das ist ja ne neue Disziplin, die in den letzten drei, vier Jahren an Bedeutung gewonnen hat. Während man sich in der Molekularbiologie bisher in sehr starkem Maße um einzelne Komponenten bemüht hat, und deren Strukturen aufgeklärt hat, geht es hier um das Zusammenwirken einer größeren Zahl von Komponenten.
Das Institut, an dem Ernst Dieter Gilles Direktor ist, heißt nicht von ungefähr Dynamik komplexer TECHNISCHER Systeme. Denn die Systembiologie hat ihre Wurzeln in den Ingenieurswissenschaften und der Mathematik. Gilles kommt ursprünglich von der Elektrotechnik her und hat vor Jahren methodisch ähnliche Forschung wie heute unter dem Etikett "Bioverfahrenstechnik" betrieben. Dabei ging es um die Optimierung von Produktionsanlagen der Biotechnologie, wo Fermenter im Industriemaßstab Antibiotika für die Pharmaindustrie produzieren. Außerdem arbeitet der Papst der Systembiologie noch an einem Forschungsprojekt zu GPS-gesteuerten Autopiloten in der Schiffsnavigation. Hier wie dort geht es um Verkehr im weitesten Sinne, um Stoffflüsse im einen Fall, Stromflüsse im andern, um realen Verkehr im dritten. Immer hat man es zu tun mit Systemen, die aus vielen Teilen bestehen, die voneinander abhängen, miteinander wechselwirken.
Wenn man jetzt fragt, was hat man für Möglichkeiten, um solche Systeme zu analysieren, dann bietet sich eigentlich nur der Weg über eine mathematische Modellierung.
Modellieren bedeutet: Zusammenhänge abstrakt erfassen, die gegenseitigen Abhängigkeiten in ein Schema fügen, um es der Analyse durch Mensch oder Rechner zugänglich zu machen. Diese Aufgabe leistet die Systemtheorie. Letztendlich sind ihre Wurzeln in der guten alten Kybernetik zu finden, die aus der Regelungstechnik hervorging und sich durch Robotik und Künstliche Intelligenzforschung auch dem Laienpublikum bekannt machte. Nun also sollen Flussdiagramme, Regelkreise und Schaltpläne helfen, biologische "Systeme" mathematisch zu modellieren. Deshalb arbeiten in dem neuen Feld Biologen, Informatiker und Systemwissenschaftler eng zusammen.
Wir haben die Erfahrung gemacht, dass wenn wir in einer Gruppe neu beginnen interdisziplinär zu arbeiten, und wenn wir Biologen, Ingenieure, Systemtheoretiker zusammen bringen, dass etwa ein Jahr benötigt wird, bis man ne gemeinsame Sprache gefunden hat.
Dass das Zusammengehen von mathematisch orientierter Systemtheorie und praktisch orientierter Biologie keine Liebe auf den ersten Blick war ist klar. Aber die Vorteile einer Vernunftehe wissen beide Seiten nach einiger Zeit zu schätzen.
Ich denke dass die Systembiologie oder die Kombination aus rein biologischen Methoden mit mathematischen oder regelungstechnischen Methoden doch Chancen und Möglichkeiten bietet, biologische Systeme zu verstehen, die man als Biologe alleine gar nicht hat.
Katja Bettenbrock ist promovierte Biologin und hatte anfangs Schwierigkeiten, der abstrakten Sprache der Systemtheoretiker in ihrer Forschungsgruppe etwas abzugewinnen. Ihre Aufgabe als Biologin ist es, durch Experimente Ausgangsdaten für die Modellierung zu finden und später auch das Modell an der Realität zu überprüfen.
Man sieht bei uns nicht ganz so viel.... das ist so ein relativ klassischer Versuchsaufbau hier, ein so genannter Fermenter, wo wir also die Bakterien in dem Fermenter anziehen und durch die ganzen Messysteme und Steuerungen die Möglichkeit haben, sehr genau zu regulieren, wie die Temperatur ist, wie die pH Werte sind, viele Dinge, die für das Bakterienwachstum entscheidend sind.
Das ist also so eine Art Brutstätte für Bakterien, dieser Eimer mit Fenster? Ja, genau, eigentlich ist es nur ein Behälter wo wir die Temperatur, also für E.coli 37 grad einstellen, und sie bleibt dadurch auch relativ konstant.
Katja Bettenbrock lässt E.coli-Bakterien in ihrem Fermenter schwitzen. Sie möchte wissen, wovon sich die Einzeller ernähren und wie die Verarbeitung der Nahrung geregelt wird. Experimentell kontrollierbar sind nur die äußeren Bedingungen, Input und Output, also die Zufuhr an Nährstoffen und die Auscheidungen der Zelle. Die detaillierten Abläufe im Innern der winzigen Zellmaschinerie sind nur stichprobenartig zugänglich.
Es ist zum Beispiel sehr schwer, wenn unser Bakterium zum Beispiel auf Glucose wächst, wird die in 20, 30 Schritten abgebaut, bis zum Ende CO2 übrig bleibt. Man kann nicht jede Zwischenstufe messen, das ist sehr schwierig, weil der Stoffwechsel sehr schnell abläuft....das geht immer nur mit ein paar Modellstoffen, die sich aus irgend einem Grund sehr gut messen lassen, die sehr stabil sind. Hier haben wir die Möglichkeit die Menge zu variieren.
Das Besondere an dem Bakterium, das Katja Bettenbrock untersucht ist seine Vorliebe für eine bestimmte Nahrung, einen Zucker namens Glucose. Erst wenn diese Lieblingsspeise verbraucht ist, kann es sich auch auf ein anderes Hauptgericht umstellen, die Lactose. Wodurch dieser Vorgang gesteuert wird ist im Prinzip bekannt.
Hier in diesem Beispiel wird das so gemacht, dass die einzelnen Zucker nacheinander verarbeitet werden. Wenn die Zelle feststellt – sie hat einen Sensor – die Glukose ist verbraucht, dann erzeugt sie ein Hungersignal, die Zelle muss sich etwas überlegen, was sie jetzt tut, sie hat ja in ihrem Repertoire die Möglichkeit, auf andere Zucker zuzugreifen, jetzt muss sie erst mal in ihrer Umgebung schauen, welche anderen Zucker sind vorhanden, und wenn sie Lactose findet, werden Gene exprimiert, die für den Abbau der Lactose und den Transport der Lactose in die Zelle hinein erforderlich sind. Das konnte er vorher nicht, aber die entsprechende Information ist natürlich im Genom enthalten.
Soweit das biologische Vorwissen. Nun kommt die Systemtheorie zum Zuge, um diese Vorstellung auch mengenmäßig richtig zu erfassen und dabei eventuell fehlende Zutaten oder Wirkmechanismen aufzuspüren. Dazu hat Diplominformatiker Martin Ginkel das Ganze in ein systemtheoretisches Modell gegossen. Auf dem Computerbildschirm liest sich das wie ein komplizierter regeltechnischer Schaltplan.
Den Biologen ist so eine Herangehensweise schon bekannt, die unterteilen so ne Zelle in Stoffe, die miteinander reagieren und interagieren, und diese Interaktionen werden letztendlich durch Mathematik beschrieben, aber damit man sich noch was drunter vorstellen kann, ist halt son Stoff ein Kästchen, und sone Reaktion ist ein anderes Kästchen, und die verschiedenfarbigen Verbindungslinien sind entweder Stoffflüsse oder Wechselwirkungen, das heißt ein Stoff nimmt Einfluss auf die Reaktion, dass die halt schneller oder langsamer abläuft.
Nun wäre mit dem Flussdiagramm nichts gewonnen, wenn sich nicht reale Zahlen für Stoff-Umsatz und -Output berechnen ließen. Tatsächlich stellen die Kästchen im Diagramm lediglich eine komfortable Vereinfachung dar. Ähnlich wie ein Flussdiagramm in der Computertechnik, wo sich hinter den Symbolen meist viele Zeilen Programmiersprache verbergen. In unserem Fall stehen die Kästchen auf dem Bildschirm für chemische Reaktionsgleichungen und die Pfeile für verschiedene Rück- und Wechselwirkungen und Kopplungen zwischen ihnen.
Diese Oberfläche ist letztendlich nur für den Menschen da, damit er sich das leichter vorstellen kann, und damit es leichter modifizierbar wird, im Endeffekt kommt's darauf an, dass man solche Modelle schnell verstehen und schnell auch ändern kann.
Das schnelle Ändern-Können ist deshalb wichtig, weil sich das biologische Vorwissen – also etwa welche Enzyme an einem Stoffwechselvorgang beteiligt sind – und die darauf aufbauenden Modellvorstellungen nicht selten als unzureichend erweisen.
Wenn man aufgrund qualitativer Betrachtungen meint, vieles wäre bekannt, dann gehen einem die Augen auf, wie wenig doch hundertprozentig sicher ist. Da hat man Überraschungen erlebt, dann fehlt eine Verkopplung mit einem weiteren Regulator und wenn man das System ohne diesen Regulator modelliert, dann sieht man, das System entspricht gar nicht den Realitäten. Das kann gar nicht so sein, wie man es angenommen hat. Und am Modell kann man dann Hypothesen formulieren und mit diesen Hypothesen kann man dann dieses gewünschte Verhalten erzeugen.
Die Prüfung der Erwartungen findet wiederum im Labor statt. Stimmen sie mit dem Experiment auch quantitativ überein, ist das ein wichtiger Hinweis, dass die Modellvorstellung, wie sie durch den Schaltplan der Informatiker repräsentiert wird, der Wirklichkeit nahe kommt.
Das ist natürlich ein erhebendes Gefühl, dass wenn man von dem mathematischen Modell ausgeht und sagt, ach da müsste ich das und das ändern, dann wäre dieses Verhalten wirklich gut nachgebildet. Und ich kann anschließend experimentell nachweisen, es ist wirklich so.
Ein Wundermittel ist auch die mathematische Modellierung nicht. Was die Molekularbiologen nicht an Vorwissen liefern, können auch die Programmschreiber nicht aus dem Hut zaubern. Sie müssen zumindest eine grobe Vorstellung davon haben, welche Enzyme und Katalysatoren in der Zelle an dem Prozess, den sie modellieren sollen, maßgeblich beteiligt sind.
Also was man zum Beispiel machen kann, ist: man guckt was es in der biologischen Literatur für Hypothesen zu irgendner Funktionsweise gibt, deckt die im Prinzip alle durch unterschiedliche mathematische Modelle ab und sieht dann wie sich überhaupt die Daten beschreiben lassen. Mit welchen Modellen es geht und mit welchen es nicht geht. Und obwohl die Modelle häufig sehr groß sind und sehr viele Parameter haben, die man drehen kann, dass nur sehr wenige Modelle das beschreiben können, das Verhalten.
Jörg Stelling gehört zur Mathematikergilde in der Magdeburger Systembiologie und arbeitet an einem besonders kniffligen Problem – der Fortpflanzung der Zelle.
Es geht um Regulationsnetzwerke, in dem Fall, den ich bearbeite, da geht’s darum, wie entscheidet ne Zelle, wann sie aus der Mitose, das ist so ne Phase am Ende des Zellzyklus, wieder übergeht in die nächste Phase, das heißt am Ende der Mitose muss das genetische Material verteilt werden auf zwei Zellen, eine Mutterzelle eine Tochterzelle, die müssen dann beide weiterleben können.
Der Kreislauf von Wachstum, Teilung und erneutem Wachstum ist die zentrale Ablaufsteuerung im Organismus Zelle überhaupt. Zu verstehen wie diese im Detail funktioniert, ist trotz zahlreicher bekannter biologischer Details intuitiv nicht zu schaffen. Das wird deutlich, wenn man Jörg Stellings Regulationsnetzwerk – das Flussdiagramm der Fortpflanzung gewissermaßen – genauer anschaut. Etwa dreieinhalb tausend Gleichungen enthält die Simulation dieses Vorgangs. Das zeigt zwar wie viel Detailwissen den Systembiologen aus der Molekularbiologie bereits zur Verfügung steht, lässt aber auch ahnen wie weit sie noch vom angestrebten ganzheitlichen Verständnis entfernt sind.
Das Endergebnis sollte sein, dass man versteht wie die Biologie funktioniert.
Ob Stoffwechselregulation oder Zellzyklus - Der Laie kann die Schaltpläne auf dem Computerbildschirm kaum unterscheiden. Gerade in dieser scheinbaren Einheitlichkeit kommt aber ein wesentlicher Vorteil der Simulationsmethode zum Ausdruck: Ihre Flexibilität; das Umstellen von einem Modell zum anderen ist im Computer schnell geschehen.
Wenn wir von der mathematischen Modellierung ausgehen, sind wir schneller als die Biologen mit ihren Experimenten. Wir können auch sehr unterschiedliche Systeme zugleich behandeln, was Biologen nicht können, die müssen sich konzentrieren auf einen bestimmten Organismus. Wir sehen, dass iwr ein bisschen mehr Freizügigkeit haben, deshalb lohnt es sich, ein Netzwerk aufzubauen, wo die Kooperationen dann stattfinden.
Das Magdeburger Max-Planck-Institut ist vorbildlich in dieser Hinsicht. Nitgends sonst arbeiten so viele Systemwissenschaftler, Biologen und Informatiker so eng zusammen wie hier. Bei manchen Problemen ist die systembiologische Arbeit schon weit gediehen. Eine Gruppe in Magdeburg bewegt sich sogar relativ nah an der Anwendung.
Wir arbeiten hier mit Bakterien, die man als Purpurbakterien bezeichnet, weil sie so ne schöne rote Farbe haben. Und diese Bakterien gehören zu den vielseitigsten Organismen, die man kennt, was den Energiestoffwechsel angeht. Da sind nämlich Zellen, die auch fast völlig weiß wachsen können, und zwar dann, wenn sie im Dunkeln wachsen und Sauerstoff atmen, so wie wir das auch tun, ..wenn sie aber ohne Sauerstoff leben müssen und im Licht sind, können sie umschalten auf einen fotosynthetischen Stoffwechsel und wachsen dann durch Absorption von Licht, von Sonnenenergie. Es sind also Bakterien, die im Prinzip zwischen einem pflanzlichen und einem Tierstofwechsel hin und her schalten können, abhängig von den Umweltbedingungen.
Hartmut Grammel ist die Begeisterung für sein Wunderbakterium anzumerken. Ein Organismus, der nahtlos zwischen Vegetarier- und Fleischfresser-Dasein umschalten kann, ist schon biologisch per se interessant. Dass die eine Variante gar ohne Lichtenergie auskommt, bietet handfeste Vorteile für eine spätere wirtschaftliche Verwertung.
Die Konsequenz daraus ist also, dass wir in der Lage sind Zellen in herkömmlichen biotechnischen Anlagen zu züchten, ohne dass wir Beleuchtungsanlagen vorsehen müssen, und die Zellen in diesem Zustand produzieren einige Komponenten, die als Wirkstoffe für die pharmazeutische Industrie von Interesse sind, Wirkstoffe zum Beispiel für die fotodynamische Therapie, und erste Substanzen aus diesen Zellen wurden jetzt vorklinisch getestet.
Für die wirtschaftliche Anwendung möchte man einen möglichst großen Output bei möglichst geringem Einsatz erzielen. Das im Fermenter, also einem realen biologischen Experiment auszuprobieren wäre langwierig und kostspielig. Ist der Produktionsprozess einmal richtig im Computer abgebildet, kann man dort viel leichter und schneller an Rädchen drehen und Schalter umlegen, um verschiedene Produktionsbedingungen auszutesten. Um die Informatikseite für die Versuche des Biologen Grammel kümmert sich in Magdeburg Steffen Klamt.
Ich zeig ihnen hier mal so ein Programm, das wir dafür geschrieben haben. Das Programm nennt sich Flux Analyser, und hier haben wir verschiedene Organismen, und für den wir uns hier interessieren ist ja Rhodospirellum rubrum. Dieses Wunderbakterium, es ist also der vielseitigste Organismus, den es überhaupt gibt. Also die können Photosynthese, sie können halt atmen, die können gären, sie können Wasserstoff produzieren, sie können Wasserstoff nutzen, um darauf zu wachsen, sie können allein nur auf CO2 und Wasserstoff wachsen. Sie können auch Stickstoff fixieren... und was Sie hier sehen ist das Kernstoffwechselnetz.
Wer bislang gezweifelt hatte, dass mathematische Modellierung tatsächlich von Vorteil für das Verständnis zellbiologischer Vorgänge ist, muss angesichts des komplizierten Schaltplans auf dem Schirm endgültig kapitulieren. Etwa 90 verschiedene Reaktionen mit 76 Reaktionspartnern sind bislang berücksichtigt, aber noch steckt das mathematische Modell in der Entwicklungsphase. Bevor Purpurbakterien in lichtlosen Produktionsfermentern im Industriemaßstab Wirkstoffe für die pharmazeutische Industrie produzieren werden, dürfte wohl noch einige Zeit vergehen. Nur eins ist schon klar: ohne die konzentrierte Kooperation von Mathematik und Biologie würde es noch viel länger dauern.
Da sind wir natürlich noch auf dem Weg. Da sitzen ja hunderte von Biologen dran. Es ist immer nur ein kleines Stück was man voran kommt auf diesem Erkenntnisweg, und die Modellierung erlaubt einfach, sämtliches Wissen, was man da schon hat, viele kleine Details, die man angesammelt hat, in einem komplexen und kompakten Modell zusammenzupacken.
Noch hat die Systembiologie einen weiten Weg vor sich zu ihrer Vision, die Lebensvorgänge ganzheitlich zu verstehen. Die klassische Molekularbiologie wird sie nicht überflüssig machen können. Vorerst sind die Modellbauer auf deren Input angewiesen, wie es in der Zelle aussieht, welche Eiweiße überhaupt am komplizierten Wechselspiel von Regulation und Transport beteiligt sind. Vom mittlerweile entschlüsselten Genom her kann man sich nun besser auch den Proteinen widmen, für die die Gene die Blaupause bilden. Über 900 Gene, deren Störung vermutlich Erbkrankheiten auslöst, haben Molekularbiologen seit dem Abschluss des Human Genomprojekts bereits analysiert. Ein rundes Drittel davon bildet Enzyme, also Eiweiße mit wichtigen Funktionen in der Zelle. Etwa 150 weitere Gene stehen für Proteine, die andere Eiweiße in der Zelle hemmen oder aktivieren. Nur ein Bruchteil dieses neuen Wissens ist bisher in die systembiologische Modellierung eingeflossen. Unabhängig von den Anstrengungen der Systembiologen, die Zelle als Ganzes zu verstehen, wird man sich am rein biologischen Ende des Forschungsspektrums weiterhin darauf konzentrieren, die Funktion einzelner Zellbausteine aufzuklären und dieses Wissen womöglich für die Medizin nutzbar zu machen, etwa bei der Herstellung neuer Medikamente. Auch dies ist ein Feld, das so genannte Drugdesign – das ohne die enge Verbindung von Mathematik und Biologie nicht mehr auskommt.
Das bisherige wird heute etwas spöttisch irrational Drugdesign genannt, weil man eben versucht Wirkstoffe zu finden, indem man alles mit allem kombiniert, wenn etwas ein bisschen haftet, wird’s rausgenommen, ein bisschen modifiziert, weil man im Grunde nicht voraussagen kann, was wirklich passiert. Und diesen Weg versucht man abzukürzen, und das geht im Grunde nur über Simulationsmethoden und Berechnungen.
Nach wie vor erinnert die Arbeit der Drugdesigner an eine Fischermannschaft, die im Nebel stochert. Aber immerhin sind mittlerweile die Fanggründe schon richtig markiert. Auch hier ist Robert Giegerichs Fachgebiet gefragt, die Bioinformatik.
Was jetzt gemacht wird, oder als Chance angesehen wird, das ist: die Anzahl der Nieten früher zu reduzieren. Dass man mit Hilfe der Bioinformatik ein Screening macht, so dass man die Stoff von vornherein reduziert, dass nicht einer von 1000 interessant ist sondern einer von hundert. Das ist das was im Moment sicher schon geht. Was nicht geht ist tatsächlich diese konstruktive Herangehensweise und die Vorhersage: ich kann einen Stoff konstruieren der wirkt.
Aber auch die gängigen Methoden der Wirkungsprüfung sind eigentlich unzureichend. Dass auf der Basis isolierter Gene konstruierte Medikamente für erfolgreiche Gentherapien nicht ausreichen, zeigen die jüngsten Fehlversuche mit Kindern, die an der unheilbaren Immunschwächekrankheit SCID leiden. Die genetische Ursache der Krankheit ist bekannt, ein defektes Gen auf dem X Chromosom. Elf solcher Kinder waren in einer Pariser Spezialklinik gentherapeutisch behandelt worden. Die Mediziner hatten ihnen eine reparierte Kopie des kranken Gens in die blutbildenden Knochenmarkszellen geschleust, zunächst mit überwältigendem Erfolg. Bei zwei der behandelten Kinder ist inzwischen Leukämie diagnostiziert. Ein herber Rückschlag für die Gentherapie, 27 weitere Studien wurden vorerst auf Eis gelegt. Um die Wirkung neu konstruierter und auf Kenntnis des Genoms basierender Wirkstoffe auszutesten, wäre wiederum die Kenntnis des Gesamtgeschehens in der Zelle hilfreich, die Nebenreaktionen, die solche Stoffe auf andere Zellbestandteile haben, die Regulationsvorgänge, die sie unabhängig von ihrer erwünschten Wirkung beeinflussen. Genau das aber strebt der ganzheitliche Ansatz der Systembiologie an. Wünschenswert wäre also eine weitere rasche Annäherung von Systemtheoretikern und Biologen.
Das Endziel ist, aus diesem ganzen Wissen eine Einheit zu machen. Man könnte sagen: Zufrieden ist der Biologe dann, wenn er im Computer eine Zelle hat, die genauso reagiert wie eine natürliche.