Ein Rechenzentrum, zwei Autostunden von den Küsten entfernt, an denen der Hurrikan Sandy gewütet hat. Junaid Kapadia zeigt stolz die Maschinen, auf denen er und die anderen Studenten ihre Software testen. Hier am Marist College arbeiten sie, gefördert von IBM, an der Virtualisierung von Netzwerken in und zwischen Rechenzentren. Deshalb ist das Rechenzentrum im Institut eigentlich drei Rechenzentren.
Insgesamt 250 Kilometer Glasfaserkabel verbinden die drei simulierten Rechenzentren. Anders als in gewöhnlichen Rechenzentren lässt sich das Netzwerk aber per Software umkonfigurieren statt durch Strippenziehen. Es steuert nicht mehr jede Netzwerkkomponente, jeder Switch selbst den Datenstrom, sondern die Netzwerkintelligenz wurde zentralisiert. Der Informatikprofessor Robert Cannistra vergleicht die Technik mit einer zentralisierten Ampelschaltung:
"Angenommen, es gibt eine Katastrophe in Downtown Manhattan. Die Feuerwehr muss möglichst schnell dorthin gelangen. Mit einer zentralen Steuerung könnte man zum Beispiel alle Ampeln die ganze Seventh Avenue runter so schalten, dass die Feuerwehr schnell durchkommt. Man rationalisiert den Verkehrsfluss, genauso kann man es bei einem Software Defined Network machen."
Das Protokoll, über das eine solche zentrale Netzwerksteuerung gemanagt wird, heißt OpenFlow. Auf diesem offenen Standard aufsetzend, haben die Informatiker Softwaretools entwickelt, die helfen, Netzwerke zu überwachen und zu steuern. Doch das Ziel war ja nicht nur, ein Rechenzentrum effizient zu steuern, sondern einen Verbund von Rechenzentren. Marist-Professor Matthew Johnson:
"Das Wide Area Network aus Glasfaser ist wie die Highways zwischen Städten. Die lassen sich nicht so leicht umkonfigurieren wie eine Ampel in der Stadt. Wir haben aber eine Software gebaut, die basierend auf OpenFlow mit solcher Hardware kommunizieren kann. Sie kann die Verbindungen neu zuweisen. Statt Spuren Richtung Süden und Richtung Norden zu haben, können wir zum Beispiel festlegen, dass alle Spuren nach Süden gehen. Ähnlich wie es tatsächlich bei einem Hurrikan gemacht wird."
Dazu hat das Team eine Browser-Anwendung entwickelt, in der das Netzwerk grafisch dargestellt wird. Linien, also Glasfaserlinks zwischen Rechenzentren, lassen sich einfach umlegen, um auf einer bestimmten Verbindung mehr Bandbreite zu haben.
"Ein Netzwerktechniker könnte in einem Katastrophenszenario gerade um sein Leben rennen und trotzdem noch sein iPhone nutzen, um die Daten zu sichern, weil die Anwendung auf allen Endgeräten läuft. Aber richtig interessant wird es durch Automatisierung. Wir können das alles nach Zeitplan oder bei Eintreten einer bestimmten Netzwerkaktivität ablaufen lassen. Wir erhalten dadurch ein sich anpassendes Netzwerk."
Die Forscher präsentieren etwa eine Demo, in der ein Video-Streaming-Server zu viel Last erzeugt und in ein anderes Rechenzentrum umziehen soll. Das System erkennt dies automatisch, verstärkt die Verbindung zwischen den Rechenzentren, migriert den Server und baut danach die zusätzliche Glasfaserleitung wieder ab. Der Videostream von dem migrierten Server läuft dabei unterbrechungsfrei weiter. Durch die flexible, bedarfsgerechte Struktur des Netzwerks lassen sich im Regelbetrieb Überkapazitäten vermeiden. Einen besonderen Vorteil der virtuellen Netzwerktechnik hebt Casimer DeCusatis von IBM aber noch für Katastrophenszenarien hervor:
"Weil es automatisiert ist, kann man diese Dinge programmieren und vorab testen. Viele Leute testen heutzutage ihre Katastrophenpläne nicht, weil das zu viele Unterbrechungen bedeutet. Dass es ein Problem gibt, merken sie erst, wenn die Katastrophe eintritt und sie nicht mehr reagieren können."