Der Blätterkatalog benötigt Javascript.
Bitte aktivieren Sie Javascript in Ihren Browser-Einstellungen.
The Blätterkatalog requires Javascript.
Please activate Javascript in your browser settings.
20 LANline 11 2021 www lanline de Schwerpunkt Physische Datacenter-Sicherheit RZ-Planung im Sinne der Ver fügbarkeit Die Tücken der Hochverfügbarkeit Da die meisten Unternehmen inzwischen von ihrer IT abhängig sind ist Ausfallsicherheit für sie ein zentrales Thema und nicht selten eine Frage des wirtschaftlichen Überlebens Betriebsunterbrechungen bremsen Geschäftsprozesse aus und verursachen oft enorme Kosten Doch eine hohe oder sogar höchste Verfügbarkeit ist ebenfalls ein Kostenfaktor allerdings nicht für jedes System erforderlich Wie also sollte man sein Rechenzentrum und die IT-Infrastruktur sinnvoll planen? Wie sehr sie von einer funktionierenden IT abhängen ist vielen Unternehmen erst seit Beginn der Corona-Pandemie so richtig klar geworden als ihre Angestellten räumlich und manchmal auch zeitlich getrennt zusammenarbeiten mussten Waren Anwendungen und Daten nicht verfügbar standen plötzlich Geschäftsprozesse still Zwar können es die meisten Unternehmen durchaus verschmerzen wenn Beschäftigte eine halbe Stunde lang nicht auf Fileshares zugreifen können oder keine Mails bekommen – kritischer sind jedoch Ausfallzeiten in Bereichen in denen es beispielsweise um hohe Umsätze oder sogar die Gesundheit von Menschen geht Hierzu zählen hochfrequentierte Onlineshops oder auch Systeme in Krankenhäusern sowie bei Wasserund Energieversorgung oder zur Steuerung von Produktionsanlagen in der Industrie Eine Verfügbarkeit von 99 9 Prozent reicht für sie nicht aus denn dies entspricht einer Downtime von fast neun Stunden pro Jahr beziehungsweise knapp 44 Minuten pro Monat In einer Büroumgebung bekommen Beschäftigte von solchen Ausfällen dagegen unter Umständen nicht einmal etwas mit etwa wenn sie während der Mittagspause oder nach Feierabend auftreten Das BSI klassifiziert Hochverfügbarkeit mit einer Mindestverfügbarkeit von 99 99 Prozent was einer Ausfallzeit von 53 Minuten pro Jahr entspricht Höchstverfügbarkeit beginnt dieser Klassifizierung zufolge bei den berühmten fünf Neunen – 99 999 Prozent – und einer jährlichen Ausfallzeit von weniger als sechs Minuten Das jedoch ist reine Theorie denn die tatsächliche Verfügbarkeit von Systemen Anwendungen und Daten lässt sich nur schwer vorhersagen beziehungsweise im Vorfeld in Zahlen ausdrücken Lediglich für die Vergangenheit können Unternehmen anhand der Ausfälle innerhalb eines bestimmten Zeitraums eine Verfügbarkeit ermitteln die allerdings nur bedingt aussagekräftig für die Zukunft ist – zu vielfältig sind die Ursachen von Ausfällen zu zufällig treten sie auf Hinzu kommt dass eine Verfügbarkeitsangabe in Prozent nichts darüber aussagt wie sich die Ausfallzeit über das Jahr verteilt Ein System das jede Stunde für eine Sekunde nicht zu erreichen ist hat rein rechnerisch eine deutlich geringere Verfügbarkeit als ein System das einmalig für eine halbe Stunde ausfällt – je nach Einsatzgebiet kann es dennoch die bessere Wahl sein Zudem existieren zwischen den Systemen kleine und größere Abhängigkeiten sodass man ihre Verfügbarkeit nicht isoliert betrachten darf Ist eine Anwendung verfügbar aber die dahinterstehende Datenbank nicht dann können Beschäftigte auch nicht mit dieser Anwendung arbeiten Risiken durch Redundanz reduzieren So wichtig eine hohe Verfügbarkeit von Systemen Anwendungen und Daten für die meisten Unternehmen ist so schwierig ist ihre Umsetzung Das zeigt schon ein Blick auf die möglichen Ursachen von Ausfällen die von Hardwaredefekten über Bedienund Konfigurationsfehler bis hin zu Stromausfällen Cyberattacken und Umweltkatastrophen reichen Durch Redundanz lassen sich viele dieser Risiken abfangen – was auch die hohen Kosten von Hochund Höchstverfügbarkeit erklärt Eigentlich müssten sämtliche Komponenten von ITund Rechenzentrumsinfrastruktur mehrfach vorhanden sein sogar das gesamte Rechenzentrum selbst Das lohnt sich allerdings nur bei wirklich hohen Anforderungen und in der Regel nicht für das Gros von Anwendungen und Daten Daher müssen Unternehmen sorgfältig überlegen für welche Systeme sie welche Verfügbarkeit benötigen also wie oft und lange diese ausfallen dürfen und welche Datenverluste hinnehmbar sind Davon ausgehend planen sie dann Disaster-Recovery-Konzepte und deren technische sowie organisatorische Umsetzung Dabei können erfahrene Partner helfen denn Unternehmen neigen oft dazu das Wachstum ihrer IT-Umgebung zu unterschätzen sodass Kühlung und USV schnell nicht mehr ausreichend dimensioniert sind Darüber hinaus kennen die Fachleute nicht nur Best Practices sondern sind auch mit ungewöhnlichen Fehlerquellen vertraut beispielsweise dem hohen Schalldruck der Sirenen von Brandmeldeanlagen der zu Erschütterungen der IT-Systeme und damit Festplattenaussetzern führen kann Die Krux mit der Georedundanz Um eine hohe Verfügbarkeit zu erreichen richten Unternehmen häufig durch Brandschutzwände getrennte Server-Räume oder zwei separate Rechenzentren am