Skip to main content

04.04.2015 | Naturwissenschaftlich-technische Anwendungen | Schwerpunkt | Online-Artikel

Stresstests für Supercomputer

verfasst von: Andreas Burkert

2:30 Min. Lesedauer

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
print
DRUCKEN
insite
SUCHEN
loading …

Die Nachfrage nach Höchstleistungsrechnern ist ungebrochen hoch, wie ein Blick auf die Rangliste der schnellsten Supercomputer zeigt. Doch vor ihrem Einsatz, müssen sie sich bewähren und einen sogenannten Burn-in-Test bestehen.

Die Menge digitaler Daten verdoppelt sich etwa alle zwei Jahre. Wer als Forschungsinstitut dementsprechend nicht auch seine Rechnerleistung aufrüstet, wird mit seinen Forschungsergebnissen in der Regel den Anschluss verlieren. Die Planung und Optimierung von Rechnernetzen wie sie im gleichnamigen Springer-Fachbuch ab Seite 335 beschreiben sind, gelten daher als wesentliche Faktoren eines fortschrittlichen Rechenzentrums. Das Höchstleistungsrechenzentrum der Universität Stuttgart (HLRS) gehört zu den Vorreitern der Branche. Mit dem im Dezember 2014 installierte Supercomputer Hornet können die Wissenschaftler nun auf eine Rechenleistung von 3,8 PetaFlops zugreifen – das sind 3,8 Billiarden Rechenoperationen pro Sekunde.

Ob aber die technischen Vorgaben allen Erwartungen gerecht werden, muss mit einem aufwendigen Stresstest ermittelt werden. Am HLRS wurden dazu vor Kurzem sechs sogenannte XXL-Projekte durchgeführt. Es waren Simulations-Großprojekte aus der Luft- und Raumfahrttechnologie, Planeten- und Klimaforschung, Umweltchemie und anderen Ingenieurwissenschaften, die das Leistungsvermögen des Systems restlos ausreizten. Die Anwendungen waren so angepasst worden, dass die Berechnungen simultan auf die annähernd 100.000 Rechenkerne, über die Hornet verfügt, verteilt wurden.

Burn-In Tests für Höchstleistungsrechner

Burn-In Tests sind in der Industrie weit verbreitet, um Bauteile und Geräte im Dauerbetrieb unter hoher Belastung zu testen. Es geht darum, im Vorfeld Komponenten zu identifizieren, die im Dauerbetrieb ausfallen würden. Einen ähnlichen Ansatz verfolgte man am HLRS mit dem neu installierten Supercomputer, der in der aktuellen Konfiguration eine Rechenhöchstleistung von 3,8 PetaFlops. Das Besondere an den Tests: Hornet sollte hochgradig skalierbare Anwendungen abarbeiten, also Programme durchführen, deren Rechenjobs auf möglichst viele der 94.646 verfügbaren Prozessoren verteilt werden.

Weitere Artikel rund um die schnellsten Computer der Welt

Die Nachfrage nach Höchstleistungsrechnen ist im Übrigen ungebrochen. Wissenschaftler verlangen immer schnellere Systeme und höher skalierende Software, um hochkomplexe wissenschaftliche und technische Fragestellungen noch besser als bislang angehen zu können. „Verfügbarkeit erzeugt Nachfrage“, erläutert Professor Michael M. Resch, Direktor des HLRS. So plant das HLRS bereits die planmäßige Erweiterung von Hornet. Diese soll noch vor Ende 2015 abgeschlossen sein. Die erwartete Rechenleistung der HPC-Infrastruktur am HLRS wird sich dann auf mehr als 7 Petaflops (7 Billiarden Rechenoperationen pro Sekunde) fast verdoppeln, womit sich Hornet in der Riege der weltweit schnellsten Supercomputer (TOP500) noch weiter nach vorne schieben wird. Schon in der jetzigen Systemkonfiguration belegt der HLRS-Rechner einen beachtlichen 16. Platz (TOP500, November 2014) und ist damit einer der schnellsten Höchstleistungsrechner Europas.

print
DRUCKEN