Noch läuft das Forschungsprogramm OpenLab 3 am CERN – bis zum Ende des Jahres. Hier geht es in erster Linie um die Verarbeitung, Komprimierung und Reduzierung riesiger Datenmengen. Mit den Visualisierungswerkzeugen, die hier entstehen, untersuchen die Forscher das Aufeinanderprallen zweier Teilchen. Und demnächst werden daraus medizinische Analysegrogramme für die Kernspin-Tomographie oder Auswertungsalgorithmen für satellitengestützte Tsunami-Warnssyteme.
Die ersten Arbeiten sind vielversprechend. Grundlage dafür sind die Auswertungsmethoden, mit denen unter anderem die vor gut einem Monat in einem Magneten isolierten 300 Atome Anti-Wasserstoff analysiert werden. Die Bilder von der gewonnenen Anti-Materie gingen damals um die ganze Welt. Entstanden sind sie im "Large Hadron Collider" genannten Teilchenbeschleuniger. Und aufgenommen wurden sie mit eigens dafür gefertigten Detektoren. Der Physiker Francois Briard erläutert das so.
"Sie können sich einen Detektor als riesige Digitalkamera vorstellen, die dreidimensionale Fotos macht. Eine solche 'Digitalkamera' wie der Atlas-Detektor hat 100 Millionen Sensorpunkte. Es ist eine Kamera, die Bilder mit mehreren 100 Megapixeln macht, und dabei 600 Millionen Bilder pro Sekunde."
Die Physiker sprechen hier gern vom "Data Mining der besonderen Art". Und tatsächlich werden die Daten dieser Urknall-Experimente 100 Meter tief unter der Erde eingesammelt. 27 Kilometer lang ist der kreisrunde Tunnel des Teilchenbeschleunigers, in dem Protonen aufeinander geschossen werden. Kommt es hier, wie am 29. März dieses Jahres, zu einer Kollision von hoch beschleunigten Teilchen, entstehen enorme Datenmengen, die ausgewertet werden müssen. Jean-Michel Jouanigot, der Direktor des CERN-Datenzentrums berichtet, was da passiert.
"Im Experiment fallen ein Petabyte Daten pro Sekunde an. Wir müssen diese Datenmenge reduzieren. Das machen wir in mehreren Schritten. Zunächst werden alle irrelevanten Informationen in Bezug auf die Teilchen entfernt. Das geschieht schon im Teilchenbeschleuniger, und wir benötigen dafür einige tausend Prozessoren. So erreichen wir einen Wert von einem Gigabyte pro Sekunde, was wir speichern und verarbeiten müssen. So kommen die Daten im Rechenzentrum an und es folgt eine lange Kette von Prozessen, um die Daten weiter zu reduzieren und die weniger interessanten Informationen von den wichtigen Daten zu trennen."
Dafür haben die Programmierer des OpenLab 3 genanten Forschungsrechenzentrums Software entwickelt, die Filtersysteme und Algorithmen für die Mustererkennung so geschickt miteinander verknüpft, dass die eingesammelten Daten von 20 bis 30 Billiarden Bytes auf nur noch eine Milliarde Bytes reduziert werden. Diese reduzierten Daten aber haben es in sich. Denn in ihnen sind die Ergebnisse des Experiments komprimiert. Über das World Wide Web werden mit einer Datengrid-Anwendung diese Daten auf bis zu 200 Auswertrechenzentren verteilt, die dann zum Beispiel mit Software für Strukturanalysen genau rekonstruieren können, was passiert ist, als 300 Atome mit Antimaterie entstanden sind. Jean-Michel Jouanigot.
"Im Grid werden 80 Prozent der erzeugten Daten verarbeitet. In Genf verarbeiten wir nur 20 Prozent. Ohne Grid könnten wir die Daten gar nicht bewältigen. Zuverlässige Partner auf der ganzen Welt helfen uns, die Daten zu verarbeiten, indem sie eigene Ressourcen zur Verfügung stellen."
Und aus dieser Zusammenarbeit entstehen dann völlig neue Computeranwendungen, wie vor 22 Jahren das World Wide Web. Nicht nur Mediziner werden von diesen Auswertalgorithmen profitieren, sondern auch Klimaforscher, Meteorologen, Geologen oder Materialwissenschaftler.
Die ersten Arbeiten sind vielversprechend. Grundlage dafür sind die Auswertungsmethoden, mit denen unter anderem die vor gut einem Monat in einem Magneten isolierten 300 Atome Anti-Wasserstoff analysiert werden. Die Bilder von der gewonnenen Anti-Materie gingen damals um die ganze Welt. Entstanden sind sie im "Large Hadron Collider" genannten Teilchenbeschleuniger. Und aufgenommen wurden sie mit eigens dafür gefertigten Detektoren. Der Physiker Francois Briard erläutert das so.
"Sie können sich einen Detektor als riesige Digitalkamera vorstellen, die dreidimensionale Fotos macht. Eine solche 'Digitalkamera' wie der Atlas-Detektor hat 100 Millionen Sensorpunkte. Es ist eine Kamera, die Bilder mit mehreren 100 Megapixeln macht, und dabei 600 Millionen Bilder pro Sekunde."
Die Physiker sprechen hier gern vom "Data Mining der besonderen Art". Und tatsächlich werden die Daten dieser Urknall-Experimente 100 Meter tief unter der Erde eingesammelt. 27 Kilometer lang ist der kreisrunde Tunnel des Teilchenbeschleunigers, in dem Protonen aufeinander geschossen werden. Kommt es hier, wie am 29. März dieses Jahres, zu einer Kollision von hoch beschleunigten Teilchen, entstehen enorme Datenmengen, die ausgewertet werden müssen. Jean-Michel Jouanigot, der Direktor des CERN-Datenzentrums berichtet, was da passiert.
"Im Experiment fallen ein Petabyte Daten pro Sekunde an. Wir müssen diese Datenmenge reduzieren. Das machen wir in mehreren Schritten. Zunächst werden alle irrelevanten Informationen in Bezug auf die Teilchen entfernt. Das geschieht schon im Teilchenbeschleuniger, und wir benötigen dafür einige tausend Prozessoren. So erreichen wir einen Wert von einem Gigabyte pro Sekunde, was wir speichern und verarbeiten müssen. So kommen die Daten im Rechenzentrum an und es folgt eine lange Kette von Prozessen, um die Daten weiter zu reduzieren und die weniger interessanten Informationen von den wichtigen Daten zu trennen."
Dafür haben die Programmierer des OpenLab 3 genanten Forschungsrechenzentrums Software entwickelt, die Filtersysteme und Algorithmen für die Mustererkennung so geschickt miteinander verknüpft, dass die eingesammelten Daten von 20 bis 30 Billiarden Bytes auf nur noch eine Milliarde Bytes reduziert werden. Diese reduzierten Daten aber haben es in sich. Denn in ihnen sind die Ergebnisse des Experiments komprimiert. Über das World Wide Web werden mit einer Datengrid-Anwendung diese Daten auf bis zu 200 Auswertrechenzentren verteilt, die dann zum Beispiel mit Software für Strukturanalysen genau rekonstruieren können, was passiert ist, als 300 Atome mit Antimaterie entstanden sind. Jean-Michel Jouanigot.
"Im Grid werden 80 Prozent der erzeugten Daten verarbeitet. In Genf verarbeiten wir nur 20 Prozent. Ohne Grid könnten wir die Daten gar nicht bewältigen. Zuverlässige Partner auf der ganzen Welt helfen uns, die Daten zu verarbeiten, indem sie eigene Ressourcen zur Verfügung stellen."
Und aus dieser Zusammenarbeit entstehen dann völlig neue Computeranwendungen, wie vor 22 Jahren das World Wide Web. Nicht nur Mediziner werden von diesen Auswertalgorithmen profitieren, sondern auch Klimaforscher, Meteorologen, Geologen oder Materialwissenschaftler.