ETH Zürich: High-Performance Computing mit Standardkomponenten
Quelle: HP

ETH Zürich: High-Performance Computing mit Standardkomponenten

Anlässlich eines Medienroundtables hat HP zusammen mit der ETH Zürich anhand des Brutus-Clusters einen Einblick in High-Performance Computing (HPC) gewährt und aufgezeigt, was mit Standardkomponenten heute alles möglich ist.
26. Juni 2012

     

Anhand von Brutus hat HP an einem Roundtable zusammen mit der ETH Zürich einen Einblick in High-Performance Computing geliefert. Der Brutus-Cluster (kurz für Better Reliability and Usability Thanks to Unified System) ist ein heterogener Verbund verschiedener Hardware-Generationen, der an der ETH Zürich im Einsatz ist. Dabei verwendet die ETH für Brutus unter anderem Server von HP sowie Standardtechnologie des US-Unternehmens. Allerdings ist HP nicht alleiniger Lieferant für Brutus.

Brutus kann 190x10^12 Rechnungen pro Sekunde durchführen und macht im Durchschnitt 2 Millionen wissenschaftliche Simulationen pro Monat. Dabei verbraucht das HPC-System 450 kW Energie, was einem jährlichen Verbrauch von 3'942'000 kWh entspricht und die ETH pro Jahr 630'000 Franken kostet. Brutus enthält 983 Computer Nodes mit insgesamt 18'400 Prozessorkernen. Dabei stammen 198 der Nodes von HP. Diese beinhalten 8764 Kerne. Die restlichen 785 Nodes stammen von anderen Lieferanten und fassen 9616 Kerne.


Brutus steht allen Instituten der ETH für Computersimulationen zur Verfügung. Wenn eine Abteilung auf Brutus zurückgreifen will, kann sie sich ihren Anteil am High-Performance-Computing-(HPC)-System kaufen und fungiert künftig als Shareholder.

Standardisierung für High-Performance Computing

Ein Grossteil von Brutus besteht aus Standardkomponenten, unter anderem von HP. Adrian Mebold (Bild), Sales Manager Server Division bei HP Schweiz, führte in seinem Referat denn auch aus, wie HP die Standardisierung – nebst Konsolidierung und Virtualisierung die dritte Triebfeder im Server-Markt – vorantreibt. Zudem erklärte er, dass als nächste Schritte die Automatisierung und die Cloud anvisiert werden. "Mit der Automatisierung wollen wir die Server mit mehr Intelligenz versehen. Und der Markt für Cloud Computing greift langsam, es kommen immer mehr Anfragen", so Mebold.

Die Vorteile von HPC liegen laut Mebold in der hohen Kosten- und Energieeffizienz. Gerade bezüglich Kosten und Energieverbrauch spürten die Organisationen heutzutage einen hohen Druck und HP könne die Ansprüche an die Effizienz mit Standardlösungen abdecken.



Aktuell verfolgt HP drei Projekte im Server-Bereich. Das Projekt Moonshot befasst sich mit dem Einsatz stromsparender System-on-a-Chip (SOC), wie sie heute für Smartphones oder Tablets verwendet werden. So sollen sehr kompakte und sparsame Server entstehen, die sich primär für Webservices und Social-Media-Plattformen eignen. Laut Mebold verbrauchen die Moonshot-Server 89 Prozent weniger Energie als herkömmliche Rack-Server.

Derweil beschäftigt sich das Projekt Odyssey mit Business-kritischen Bereichen, also hochverfügbaren Systemen. Hier arbeitet HP aktuell daran, die Unix-Technologie in Richtung x86-Server herunterzubrechen, so Mebold.


Im Zentrum des dritten Projekts namens Voyager steht schliesslich Brutus. Dabei kommt die neueste, achte Generation der Proliant-Server von HP zum Einsatz, die für die Standardisierung stehen. Dank schnellerer CPU liefert die neue Generation mehr Brandbreite, zudem versucht HP nicht mehr nur über die Hardware, sondern auch über das Server-Management Einfluss auf die Leistung zu nehmen. Insgesamt hat HP in die Entwicklung der achten Generation von Proliant zwei Jahre Zeit und rund 300 Millionen Dollar investiert.

Brutus seit 2008 im Einsatz

An der ETH Zürich kümmert sich ein Team rund um Olivier Byrde, Head of HPC Group IT Services, um Brutus. Gestartet ist die HPC-Gruppe 2007. "Es gab bereits vorher High-Performance Computing an der ETH, aber die Aktivitäten waren nicht koordiniert", erklärt Byrde. Die HPC Group kümmert sich um das Beschaffungswesen, das System-Management und den Support.

Im Einsatz ist Brutus seit 2008. Bis dahin waren parallel die HPC-Systeme Hreidar und Gonzales sowie Asgard im Einsatz. Was Brutus von den bisherigen Systemen unterscheidet, ist, dass die Plattform so gebaut wurde, dass nebeneinander verschiedene Generationen von Hard- und Software zum Einsatz kommen können. Dies erlaubt der ETH Zürich kontinuierliche Updates und Erweiterungen, ohne die Arbeit der Wissenschaftler, die Brutus verwenden, zu stören. Ausserdem ist Brutus dank einer zentralisierten Installation und Administration einfach zu verwenden und basiert nebst Standard-Komponenten auch grösstenteils auf Open-Source-Software. Zu Beginn fasste Brutus 2,4 Terabyte, heute beträgt die Kapazität des HPC-Systems 192,9 Terabyte (TB).

Brutus im Einsatz für die Forschung

Brutus ist ein Forschungs-Tool, das von über 1400 Wissenschaftlern verschiedenster Departemente der ETH verwendet wird. Zwei davon sind Professor Reto Knutti vom Institut für Atmosphäre und Klima sowie Dr. Ryan Woodard vom Chair of Enterpreneurial Risk.

Professor Knutti vom Institut für Atmosphäre und Klima zeigte anlässlich des Roundtables, wie er und sein Team mit Hilfe von Brutus die Entwicklung des weltweiten Klimas über Jahrzehnte und Jahrhunderte simulieren. Dazu werden verschiedene Klima-Modelle im Computer beschrieben. Für ihn als Wissenschaftler ist bei Brutus die Zuverlässigkeit des Systems am wichtigsten, aber auch die Kosten und die Leistung sind zentral, ebenso wie der Support und kurze Wartezeiten in Queues. "Brutus ist wie ein Traktor: Er ist nicht die schnellste Maschine, aber sie funktioniert und rechnet und rechnet", fasst Knutti zusammen. Trotzdem stösst das System an Grenzen. Heute stehen den Wissenschaftlern pro Klimamodell auf Brutus bis ungefähr 500 Cores zur Verfügung, unter idealen Voraussetzungen wären es laut Knutti aber bis zu 100'000 Cores – "das ist aber auch immer eine Budgetfrage".


Derweil präsentierte Dr. Woodard vom Chair of Enterpreneurial Risk, wie er und das Team von Professor Didier Sornette dank Brutus Financial Bubbles analysieren und versuchen, ihr Ende vorauszusagen. Mit Hilfe von Brutus registrieren sie dazu täglich Updates von rund 2000 Posten wie Aktien oder Indizes. Jeder Posten benötigt dabei ein bis zwei Stunden auf einem einzigen Brutus-Core. (abr)




Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Wieviele Zwerge traf Schneewittchen im Wald?
GOLD SPONSOREN
SPONSOREN & PARTNER