Ralf Krauter: Wer hat aktuell die Nase vorn beim Bau von Rechenmaschinen, die Petaflops schaffen, also zehn hoch 15 Rechenoperationen pro Sekunde?
Peter Welchering: Da heißt es America first. Es steht überraschend immer noch der Summit-Rechner am Oak Ridge National Lab mit 143 Billiarden Rechenoperationen pro Sekunde an der Spitze, gefolgt vom Lawrence Livermore Lab auf Platz zwei. Die chinesischen Sunway- und Tianhe-Rechner liegen auf Platz drei und vier. Da hatten die Experten eigentlich erwartet, dass die Chinesen Platz eins belegen.
Supercomputer in München belegt Platz neun
Krauter: Es heißt, Deutschland konnte einen Achtungserfolg auf der Liste erringen.
Welchering: Der SuperMUC am Leibniz-Rechenzentrum in München hat Platz neun geschafft. Das war auch erwartet worden. Die zweite Generation des Supermuc schafft fast 20 Billiarden Rechenoperationen. Aber Deutschland insgesamt ist abgefallen. Vor sechs Monaten haben 17 Supercomputer in Deutschland noch mehr als 60 Billiarden Rechenoperationen pro Sekunde geschafft.
Krauter: Die Forschungspolitik feiert aber doch den Supercomputer-Standort Deutschland. Wie passt das denn zusammen?
Welchering: Die deutschen Rechner legen bei Anwendungen des maschinellen Lernens wesentlich mehr Rechenoperationen hin als bei der Test-Suite der Top-500-Liste. Das gilt übrigens auch für den Listenkönig, den Summit-Rechner. Der schafft bei Anwendungen fürs maschinelle Lernen 1,5 Trillionen Rechenoperationen, mit der Test-Suite der Top 500 aber nur 143 Billiarden. Das hat einen einfachen Grund. Bei der Test-Suite muss die Rechengenauigkeit 16 mal größer sein als bei Anwendungen maschinellen Lernens. Die Forschungspolitik hierzulande hat diesen Wert nicht richtig unterschieden und ist deshalb bei der Einschätzung, wie sich das Supercomputing so entwickelt hat, von ganz falschen Voraussetzungen ausgegangen.
Rote Linien für den Einsatz von Deep-Learning-Netzwerken
Krauter: Maschinelles Lernen bildet aber doch auch einen der Schwerpunkte der Frankfurter Konferenz. Was wird denn da diskutiert?
Welchering: Neben neuen sehr schnellen Lernnetzwerken werden da auch ethische Fragen diskutiert. Wo gibt es rote Linien für den Einsatz von Deep-Learning-Netzwerken oder generativen Netzwerken? Und da sagen die Supercomputerentwickler: Die Politik und die Industrie, die müssen sich endlich mit den Grundlagen maschinellen Lernens beschäftigen. Und diese Grundlage heißt: Wahrscheinlichkeitsrechnung. Maschinelles Lernen beruht auf Wahrscheinlichkeiten. Und die können nur so gut berechnet werden, wie die Datenbasis es zulässt. Wir müssen stärker darauf achten, woher diese Daten kommen. Wie kommen also die Systeme, die mit maschinellem Lernen arbeiten, an ihre Daten? Das müssen wir besser kontrollieren. Und da müssen wir Grenzen aufzeigen.
Krauter: Wo liegen diese Grenzen?
Welchering: Beim selbstfahrenden Auto zum Beispiel müssen wir die Risiken klarer machen als bisher. So kann ein mit Stickern beklebtes Verkehrsschild zu Fehlinterpretationen und Fahrfehlern führen. Da sagen die Computerwissenschaftler: Weg von der unangebrachten Euphorie. Der zweite Fragenkomplex geht in die Richtung: Welche Entscheidungen wollen wir den Systemen überlassen? Verhaltensprognosen zum Beispiel können zu einer komplett überwachten und kontrollierten Gesellschaft führen. Der Appell der Computerwissenschaftler an die Gesellschaft und die Politik lautet: Lasst uns hier Grenzen ziehen.