Die richtige Wahl der Serverplattform
Artikel erschienen in Swiss IT Magazine 2006/14
Es existieren verschiedene industriestandardbasierende Serverplattformen mit durchaus unterschiedlichen Techniken: So ist zwischen Prozessoren mit 64-Bit-Erweiterungen einerseits und «echten» 64-Bit-CPUs zu diffenzieren. Der auf den ersten Blick geringe Unterschied hat enorme Auswirkungen auf die Leistungsdaten der IT-Infrastruktur.
Auf dem Markt der Serversysteme ist die Auswahl der angebotenen Prozessoren breit gestreut: Sie reicht von x86-basierenden Chips von Intel (Xeon) und AMD (Opteron) mit oder ohne 64-Bit-Erweiterungen bis hin zu Intel-Itanium-2-CPUs. Darüber hinaus sind auch Server mit sogenannten PA-RISC- oder Alpha-Prozessoren sowie proprietäre Lösungen diverser Anbieter verfügbar. Unternehmen, die auf eine Industriestandard-basierende 64-Bit-Architektur setzen möchten, haben derzeit die Wahl zwischen zwei Anbietern: AMD und Intel.
Mit den AMD-Opteron- und den Intel-Xeon-Prozessoren offerieren beide Hersteller ähnliche CPUs, die auf der bekannten x86-Architektur aufbauen. Diese verfügen im Kern über eine Bandbreite von 32 Bit. Durch Erweiterungen sind die neueren Modelle jedoch in der Lage, auch 64-Bit-Anwendungen auszuführen. Sie sind somit zum Beispiel für den Betrieb der 64-Bit-Versionen von Windows oder Linux geeignet. Darüber hinaus verfügt Intel auch über einen reinen 64-Bit-Prozessor, den Itanium, der mittlerweile in der vierten Generation auf dem Markt ist. Durch den grundlegend anderen Aufbau der Architektur existieren hier – im Gegensatz zu AMD Opteron und Intel Xeon – keinerlei Beschränkungen, die noch aus der 32-Bit-Ära übernommen wurden. So lassen sich im 64-Bit-Computing beispielsweise auch grosse Bereiche des physikalischen Speichers direkt adressieren – bei 32-Bit-Systemen ist dieser Zugriff auf rund 4 GByte begrenzt. Kann ein Prozessor auf mehr Arbeitsspeicher direkt zugreifen, muss er seltener auf Daten warten, die zum Beispiel von vergleichsweise langsamen Festplatten kommen – die Verarbeitungsgeschwindigkeit steigt dadurch zusätzlich.
Der Itanium-Prozessor verfügt im Kern nicht nur über die doppelte Bandbreite, sondern im Vergleich zu seinen Konkurrenten auch über eine gänzlich unterschiedliche Methodik bei der Verarbeitung von Rechenaufträgen. x86-Prozessoren mit ihrer CISC-Architektur (Complex Instruction Set Computer) verarbeiten Befehle sequenziell. Hier müssen alle anstehenden Aufträge «in der Schlange stehen» und warten, bis die vorherigen Befehle verarbeitet sind. Darunter leidet die Leistungsfähigkeit – speziell bei komplexen Berechnungen. Dagegen setzt Intel beim Itanium auf die parallele Verarbeitungsmethodik EPIC (Explicitly Parallel Instruction Computing): Der Prozessor kann mehrere Berechnungen zeitgleich ausführen. Davon profitieren insbesondere Anwendungen, die komplexe und umfangreiche Berechnungen erfordern. Die Voraussetzung dafür ist jedoch, dass die Applikationen für Itanium geeignet (kompiliert) sind. Dies sind mittlerweile rund 8500 Programme aller namhaften Hersteller. Darüber hinaus verfügt der Itanium in der neuesten Version über 24 MByte internen Cache – deutlich mehr als andere Prozessoren.
Der Trend hin zu Prozessoren mit mehreren Kernen (Multi-Core) sorgt inzwischen dafür, dass auch x86-CPUs Aufträge parallel bearbeiten können – allerdings jeweils nur einen pro Kern. Bei den mittlerweile verfügbaren Dual-Core-Systemen ist somit die Anzahl der gleichzeitig durchgeführten Aufträge auf zwei begrenzt. Die seit Ende Juli 2006 verfügbare neuste Generation der Itanium-Prozessoren («Montecito») geht noch einen Schritt weiter: Die CPU hat nicht nur einen Multi-Core-Aufbau, sondern ist darüber hinaus auch Multi-Thread-fähig. Unter Multi-Threading versteht man das parallele Verarbeiten mehrerer Abläufe (Threads) in einem einzigen Programm. So ist beispielsweise ein Server mit Dual-Core-CPUs und Dual-Thread-Funktion in der Lage, vier Programmabläufe je Prozessorsockel gleichzeitig zu verarbeiten.
Die Unterschiede zwischen AMD Opteron und Intel Xeon einerseits sowie Intel Itanium andererseits beschränken sich nicht nur auf die sequenzielle oder parallele Berechnung. Auch bei den Faktoren Verfügbarkeit und Rechengenauigkeit existieren deutliche Differenzierungen. Im Gegensatz zu den kostengünstigeren x86-Prozessoren ist die Itanium-Plattform konsequent für höchstmögliche Ausfallsicherheit konzipiert. Die technische Grundlage dafür bilden redundante Baugruppen, die bereits auf Prozessorebene dafür sorgen, dass der Ausfall einer Komponente den Geschäftsbetrieb nicht beeinträchtigt. In Kombination mit dem Clustering zweier oder mehrerer solcher Server lässt sich so die Hochverfügbarkeit der IT gewährleisten. Daher bildet diese Plattform auch die Grundlage für so genannte Nonstop-Systeme, die für den Betrieb geschäfts- und sicherheitskritischer Anwendungen eingesetzt werden. Dagegen erreicht der Anwender bei Xeon- und Opteron-basierenden Infrastrukturen eine möglichst hohe Verfügbarkeit der Systeme in erster Linie lediglich durch das Clustern mehrerer Server. Die Ausfallsicherheit wird hier faktisch durch die Duplizierung ganzer Server erreicht.
Ein weiterer Aspekt ist die Rechengenauigkeit: Aufgrund seiner Architektur weist der Itanium hier ein sehr hohes Mass auf. Um ähnlich exakte Ergebnisse mit x86-basierenden CPUs in der gleichen Zeit zu erreichen, müssten mehrere solcher Systeme parallel geschaltet werden.
Die Skalierbarkeit stellt ein weiteres Unterscheidungskriterium dar: Der Ausbau der Serverinfrastrukturen bei x86-basierenden Lösungen erfolgt per «Scale out». Hierbei werden einfach zusätzliche Server parallel geschaltet, um die benötigte Rechenleistung bereitzustellen. Dagegen lassen sich Itanium-basierende Systeme bei Bedarf über zusätzliche Prozessoren aufrüsten. So sind beispielsweise Server der Baureihe HP Integrity mit bis zu 128 Prozessorsockeln ausgestattet. Die Skalierung kann hier einfach innerhalb bestehender Servergehäuse erfolgen («Scale up»). Daher stellt sich für viele Unternehmen die Frage, was letztendlich für sie effizienter ist: ein oder mehrere «grosse» Server mit echten 64-Bit-Strukturen oder doch eine mehrfache Anzahl «kleiner» Server mit Intel-Xeon- oder AMD-Opteron-Prozessoren.
Um einen effizienten Serverbetrieb zu ermöglichen, ist eine flexible Ressourcenzuteilung der Rechenleistung meist ein probates Mittel. Unternehmen führen dabei ihre Ressourcen in einem virtuellen Pool zusammen und greifen je nach Bedarf auf diese Kapazitäten zu. Die Ressourcenverteilung erfolgt dabei automatisch und geht bei der Itanium-Architektur bis auf die Prozessorebene hinunter.
Allerdings ist die Virtualisierung nicht auf die reinen 64-Bit-Systeme beschränkt: Auch Infrastrukturen mit x86-basierenden Servern lassen sich virtualisieren. Dabei setzt die Ressourcenzuteilung jedoch nicht bereits beim einzelnen Prozessor an, sondern verteilt die Rechenleistung eines kompletten Servers. Hier kommen meist Lösungen spezialisierter Anbieter zum Einsatz, wie zum Beispiel Vmware.
Bei der Frage, welche Serverplattform für welche Applikationen die am besten geeignete ist, gibt es einige Richtwerte: So eignen sich Itanium-basierende Infrastrukturen speziell für den Betrieb grosser Datenbanken und Data-Warehousing-Anwendungen. Für rechenintensive 64-Bit-Applikationen mit einem hohen Leistungsbedarf bei Fliesskommaoperationen sind diese CPUs aufgrund der beschriebenen Vorteile wie etwa der durchgängigen 64-Bit-Architektur und dem grossen direkt adressierbaren Speicher in der Regel die erste Wahl. Da sie sich zudem leicht skalieren lassen, sollten auch Unternehmen diese Plattform ins Auge fassen, die künftig mit stark steigenden Anforderungen bei den eben genannten Einsatzbereichen an ihre IT rechnen.
Dagegen spielen Intel-Xeon- und AMD-Opteron-Prozessoren ihre Stärken besonders beim Betrieb kleinerer Datenbanken, bei statischen und dynamischen Webservices sowie beim File- und Print-Serving aus. Sie verfügen beide über eine hohe Performance bei 32-Bit-Anwendungen und eignen sich somit gut für die Konsolidierung vorhandener Infrastrukturen.
Es existieren jedoch auch Fälle, bei denen keine der Plattformen auf den ersten Blick die effizientere ist. So können zum Beispiel bei mittelgrossen Datenbanken sowohl Itanium- als auch x86-basierende Server von Vorteil sein. Hier ist eine genaue Analyse der individuellen Situation notwendig, um sich Klarheit darüber zu verschaffen, welcher Weg der bessere ist.
Aufgrund der typischen Anwendungslandschaft in den Unternehmen ist der Einsatz von x86-basierenden Servern meist ohnehin erforderlich – zum Beispiel für das File- und Print-Serving. Daher ist die Frage «x86 oder Itanium?» auf den Betrieb einzelner Applikationen beschränkt. Wer dabei von vornherein davon ausgeht, dass eine einheitliche Infrastruktur aus x86-basierenden Servern deutlich einfacher zu verwalten und somit prinzipiell vorzuziehen sei, irrt jedoch. Da beide Plattformen auf Industriestandards basieren, ermöglicht eine entsprechende Managementsoftware die einfache und effiziente Administration auch von kombinierten Serverlandschaften. Auch der kombinierte Einsatz beider Serverarchitekturen ist mittlerweile Platz sparend möglich: So bieten erste Hersteller bereits Blade-Server mit Intel-Itanium-2-Prozessoren. In geeigneten Gehäusen (Blade Enclosures) lassen sich beide Servertypen nebeneinander betreiben. Da die Blades beider Bauarten auf die gleiche zentrale Stromverteilung und Kühlsysteme zugreifen, können Unternehmen, die bislang lediglich x86-Blades verwenden, kostengünstig und Platz sparend auch Itanium-basierende Blades integrieren. Zu den weiteren Vorteilen gegenüber Einzelservern zählt der geringere Aufwand für die Netzwerkverkabelung. Zudem sind Switches und Kabel für Tastaturen, Mäuse und Monitore überflüssig, da sich die Blade-Server über eine Browser-basierende grafische Benutzeroberfläche verwalten lassen.
Bevor Unternehmen sich für ein Serverkonzept entscheiden, sollten sie ein Anforderungsprofil erstellen. Der entscheidende Punkt dabei ist: Welche Applikationen sind im Einsatz, beziehungsweise werden künftig benötigt? Auch Fragen, wie verfügbar und ausbaufähig die Server sein müssen, sind im Vorfeld zu klären. Dabei empfiehlt es sich generell, auf Server zu setzen, die auf Industriestandards basieren. Diese lassen sich auch einfach in bestehende Infrastrukturen integrieren und sind zudem leichter zu verwalten und zu skalieren. Dadurch ist der Investitionsschutz gewährleistet. Um Lösungen zu finden, die perfekt auf die individuellen Bedürfnisse zugeschnitten sind, ist jedoch eine kompetente Beratung unerlässlich. Von Vorteil ist dabei, wenn ein Anbieter nicht nur eine Prozessorplattform im Portfolio hat, sondern über eine breite Serverpalette verfügt – von x86-Lösungen bis hin zu Systemen für das durchgehende 64-Bit-Computing. Auch die Wahl zwischen den Formfaktoren Rack und Blade sollte gewährleistet sein. Da ein Grossteil der Gesamtkosten nicht bei der Anschaffung, sondern im Betrieb der Serverinfrastruktur anfällt, ist effiziente und umfassende Software für das Systemmanagement ein entscheidendes Kriterium. Denn die Wahl der besten Serverplattform hilft nichts, wenn sich diese später nicht effizient verwalten lässt.