Schrittweiser Ausbau auf 340 Knoten
Die Testphase des Clusters begann bereits im April 2004 mit 16 Servern des Typs rx2600, die jeweils zwei Itanium 2-Prozessoren enthalten. Bis Anfang 2006 wird das Gesamtsystem in zwei Stufen auf 334 Knoten ausgebaut, die mit den Itanium-Prozessoren der nächsten beiden Generationen (Code Names Madison9M und Montecito) jeweils zwei beziehungsweise vier Prozessorkerne enthalten. Zusätzlich werden Ende des Jahres sechs weitere Knoten, bestehend aus rx8640-Servern mit jeweils 16 Itanium 2-Prozessoren der nächsten Generation (Code Name Madison9M), in den Cluster integriert. In jeder Implementierungsphase können die jeweils marktreifen neuen Technologien in den Cluster übernommen werden.
Das System wird in seiner jetzigen Konzeption eine maximale Rechenleistung von circa elf TeraFlop pro Sekunde erreichen und über 7,2 TeraByte Hauptspeicher verfügen. Die zentral verwalteten Knoten kommunizieren über ein sehr schnelles Quadrics-Interconnect mit einer geringen Latenzzeit und einer Übertragungsgeschwindigkeit von bis zu 2 GigaByte pro Sekunde simultan in jede Richtung.
Lustre – zentrales File System mit 40 TByte
Das Cluster wird mit Lustre über ein zentrales, paralleles File System verfügen, das im Endausbau eine Kapazität von 40 TeraBytes bereitstellt. Dieses besonders für den Einsatz bei großen Linux-Clustern konzipierte Shared File System gewährleistet eine sehr hohe I/O-Performanz. Es ist äußerst hoch skalierbar, beruht auf offenen Standards und ermöglicht eine einfache und effiziente Verwaltung.
Redundante und separierte Systeme sichern Hochverfügbarkeit
Um die Sicherheit und Hochverfügbarkeit des Clusters zu gewährleisten, sind einzelne Bereiche separiert (Partitionierung). So bleiben nicht betroffene Bereiche weiterhin funktionsfähig, falls doch einmal ein Teilsystem ausfallen sollte. Zusätzlich sind alle Hard- und Software-Komponenten - so weit möglich - redundant ausgelegt. Weitere Funktionen zur Hochverfügbarkeit werden im Rahmen einer gemeinsamen Kooperation von HP mit dem SSC implementiert werden. Dies betrifft insbesondere Knoten mit speziellen, wichtigen Funktionen wie zum Beispiel das Ressourcen-Management, spezielle Leader-Knoten, die Lustre File Server und die Knoten für externe Netzwerkfunktionalität.
HP, die Universität Karlsruhe und Intel gründen Kompetenzzentrum
Die Universität Karlsruhe (TH) und HP gründen gemeinsam mit Intel ein Kompetenzzentrum für High Performance Technical Computing (HPTC³) (siehe Presseinformation S2106K5152) . Als erste Aufgabe übernimmt das Kompetenzzentrum die Integration des Clusters in das operative Umfeld des hkz-bw (siehe weiter unten) . Dies umfasst die Überwachung des Clusters und die Gewährleistung der Hochverfügbarkeit für kritische Funktionen. Weitere Aufgaben sind Schulungen und Weiterbildung, die Portierung und Optimierung von Applikationen unabhängiger Softwareanbieter (ISV) sowie die Zusammenarbeit der Partner bei HPC-Anwendungen in neuen, innovativen Forschungsbereichen wie etwa Life Sciences, Umweltforschung oder Grid-Computing.
Geballte Rechenleistung für Wissenschaft und Industrie
Der neue Hochleistungsrechner wird in das von Baden-Württembergs Wissenschaftsministerium Mitte 2003 gegründete Höchstleistungsrechner-Kompetenzzentrum Baden-Württemberg (hkz-bw) integriert. Zur Zeit sind dort die Rechenzentren der Universitäten Stuttgart und Karlsruhe vertreten. Die Rechenleistung und das Know-how des hkz-bw stehen Universitäten und wissenschaftlichen Einrichtungen sowie der Industrie zu Forschungszwecken zur Verfügung. Die hohe Leistungsfähigkeit ermöglicht dabei Simulationen in vielen Bereichen, beispielsweise in der Materialforschung, der Strömungsforschung, der Elementarteilchenphysik, der Klima- und Umweltforschung oder in den Life Sciences. Auch Unternehmen können das hkz-bw für rechenintensive Anwendungen wie etwa Simulationen für Luft- und Raumfahrtprojekte oder in der Fahrzeugentwicklung in Anspruch nehmen.