Das Verständnis für die Bedeutung des Rechenzentrums für den Geschäftsbetrieb steigt. Es wird nicht nur für Backups und Disaster Recovery genutzt, sondern es werden dort vermehrt auch Daten und Anwendungen für geschäftskritische Prozesse vorgehalten, die einen Einfluss auf die äussere Wahrnehmung des Unternehmens haben. An die externen Standorte werden voll funktionsfähige so genannte Second Data Center oder 1:1 gespiegelte IT-Infrastrukturen ausgelagert. Ausfälle oder Sicherheitslücken im Rechenzentrum können schwere Rückschläge für die Organisation bedeuten. Aus diesen Gründen wird zunehmend hinterfragt, welchen Risiken Unternehmen ausgesetzt sind. Der Wunsch nach mehr Transparenz zielt zusätzlich darauf ab, Kosten zu senken.
Auswahl des richtigen Providers
Im Einklang mit diesen Bedürfnissen entwickelte sich die Schweiz in den letzten Jahren zu einem attraktiven Standort für Rechenzentren. Bei der Vielfalt des Angebotes gilt es, den passenden Provider zu finden. Eine Reihe von Kriterien helfen dabei:
Bewertung mittels Tier-Skala: Die Unterschiede der Anbieter und ihrer Einrichtungen mit Blick auf die technischen Aspekte zeigen sich in der Bewertung der so genannten Tier-Skala. Diese vom US-amerikanischen Uptime Institute institutionalisierte Klassifizierung weist den Rechenzentren einen technischen Standard zu, der mit Tier I und mit bis Tier IV als höchstes Level beziffert wird. In der Schweiz gibt es eine bedeutende Anzahl Rechenzentren, die in ihrer technischen Ausführung Tier III bis IV aufweisen.
M&O-Zertifizierung: Zertifizierungen durch unabhängige Stellen, wie das ebenfalls durch das Uptime Institute vergebene Management-&-Operations (M&O)-Zertifikat, belegen die Vertrauenswürdigkeit von Anbietern. Die M&O-Zertifizierung gilt inzwischen als De-facto-Standard für die Bewertung der Führung und des Betriebs von Rechenzentren, der mit der Auditierung von Geschäftsberichten vergleichbar ist. Immer mehr Betreiber erkennen den Wert, den eine solche Zertifizierung für sie hat und unterziehen ihre Rechenzentren der Bewertung. Neben Providern sind es zunehmend auch Unternehmen mit ihren eigenen Rechenzentren, die sich diesem Prozess unterziehen.
Best-Practice-Standard: Der Best-Practice-Standard bewertet alle Aspekte der Betriebsführung, von den Sicherheitsrichtlinien und -vorkehrungen über den täglichen Betrieb bis zum Umgang mit den Kunden und der Instandhaltung des Gebäudes. Das Uptime Institute achtet auch darauf, inwieweit der Betreiber die Vorgänge im Rechenzentrum gegenüber den Kunden transparent macht. Dies betrifft zum Beispiel die Risiken im Betrieb sowie den spezifischen Energieverbrauch für ihre Daten und Anwendungen. Zu beachten gilt: Im Hinblick auf die Energie-Effizienz bewertet der Benchmark zwar Verschwendung von Energie, setzt aber keinen spezifischen PUE-Wert (Power Usage Effectiveness) fest.
Zertifizierungen sind nicht allesBei der Beurteilung eines geeigneten externen Standortes sollte sich der Kunde jedoch nicht alleine auf Zertifizierungen beschränken, da diese oft das Unternehmen als Ganzes prüfen (z.B. ISO 27001). Bei der Auswahl eines Rechenzentrums sollten vor allem auch die folgenden Faktoren mit in den Blickwinkel der Entscheidung fallen:
Geographischer Standort: Die Nähe zu den Daten ist aus strategischen, technischen und organisatorischen Gründen immer noch ein Schlüsselfaktor für viele Unternehmen bei der Wahl des Rechenzentrums. In bestimmten Wirtschaftssektoren können die Grösse der ausgetauschten Daten, die benötigte Geschwindigkeit und die Häufigkeit der Bewegungen die Datenübertragung (auch in Abhängigkeit der eingesetzten Technologie) und den reibungslosen Ablauf stark beeinflussen. Dabei ist der optimale Standort in Abwägung der sicherheitstechnischen Betrachtungen (Minimalabstand) und technischen und organisatorischen Möglichkeiten zu eruieren. Hier kann mit einer qualitativ guten Glasfaser-Verbindung die Relevanz der Nähe des Rechenzentrums reduziert werden. Trotzdem sollte der Standort des Rechenzentrums möglichst gut zu erreichen sein und nicht in exponiertem Gelände (Hochwasser oder Erdbeben) oder in möglichen Krisengebieten (soziale Unruhen) liegen.
Stromversorgung: Die Energieversorgung und Kühlmechanismen sind vergleichbar mit der Lebensader eines Rechenzentrums. Darum ist es wichtig, dass die Anbieter in geeigneter Weise in Methoden und Technologien investieren, die den Betrieb des Rechenzentrums aufrechterhalten. Die doppelte Zuführung der Stromversorgung bis hin zu seinem Endpunkt, den Racks im Datenzentrum oder jeder anderen beliebigen Infrastruktur, muss mittels redundanter Systeme gesichert werden, um einen Stromausfall zu verhindern. In diesem Zusammenhang steht auch die Energie-Effizienz im Fokus, welche sicherlich einer der wesentlichsten Punkte in Bezug auf Kostenminimierung auf Kundenseite darstellt – machen doch die Kosten für den Stromverbrauch heute zirka einen Drittel der operativen Gesamtkosten aus. Neben dem Hauptkostenpunkt des Hosting-/Co-Location-Angebots ist die Energieeffizienz des Rechenzentrums ein wichtiger Faktor, auch in Bezug auf die Nachhaltigkeit und den ökologischen Fussabdruck eines Unternehmens. Das Rechenzentrum und seine Nachbarschaft können so beispielsweise zu einer funktionalen Einheit verschmelzen, wenn etwa Abwärme verkauft wird oder erneuerbarer Strom verfügbar ist. Eine optimale Lösung bietet sich hierbei zum Beispiel mit der Integration des Rechenzentrums in einen Wärmeverbund an.
Sicherheit: Studien und Erfahrungen der letzten Jahre haben gezeigt, dass die Sicherheit die grösste Sorge der Data-Center-Kunden darstellt. Die genaue Lage von Rechenzentren ist ein oft gut gehütetes Geheimnis oder zumindest muss der Betreiber die Anonymität seiner Kunden sicherstellen, da dies ein Teil des Sicherheitsprotokolls ist. Äusserlich oft als solche kaum zu erkennen, werden die Rechenzentren immer durch physische Sicherheitsfunktionen, wie speziell gesicherte Umzäunungen, Überwachungsgeräte, Kartenleser und weitere Massnahmen abgesichert. Die grossen Rechenzentren sind darüber hinaus rund um die Uhr von vor Ort anwesendem Sicherheitspersonal bewacht und vor unberechtigtem Zugriff geschützt.
Konnektivität: Führende Betreiber bieten ihren Kunden eine Vielzahl von Internetzugängen oder dedizierten Peer-to-Peer-Anschlussmöglichkeiten und gewährleisten damit Transparenz, Kontrolle und Optimierungspotential. Carrier-Neutralität (die Verfügbarkeit von mehr als einem Netzwerk-Provider in einem Data-Center) ist eine Grundvoraussetzung für die meisten Kunden. Einige Provider bieten zudem End-to-End-Connectivity-Lösungen aus ihrem eigenen Netzwerk an. Dies ermöglicht die Bereitstellung der gesamten externen Leistung vom Rechenzentrum und dem sicheren Internet-Zugang, beziehungsweise der Standortverbindungen über private Netzwerke, ohne auf mehrere Anbieter nebeneinander und den damit verbundenen Management-Aufwand angewiesen zu sein.
Mit Hilfe dieser Orientierung mittels Zertifizierungen sowie der Überprüfung der wichtigsten weiteren Faktoren lässt sich das jeweilige Rechenzentrum für die individuellen Kundenbedürfnisse schneller und effizienter identifizieren.