Drei wichtige Oberpunkte Was benötigt ein erfolgreiches Datencenter konkret?

MITSUBISHI ELECTRIC EUROPE B.V (Factory Automation)

Die hohen Wachstumsraten machen Datenzentren zu einem attraktiven Geschäftsbereich, doch die rasanten Veränderungen und hohen Ansprüche bringen Herausforderungen mit sich.

Bild: iStock, sdecoret
01.02.2023

Die Pandemie hat sich nicht nur auf die Gesellschaft, sondern auch auf die Industrie ausgewirkt: Sie hat die „digitale Revolution“ vorangetrieben. Dieser plötzliche digitale Wandel in Verbindung mit den neuesten Entwicklungen in der 5G-Kommunikation weckt den Bedarf an mehr web- und cloudbasierten-Lösungen. Dies führt zu enormen Investitionen in IT-Infrastrukturen.

Sponsored Content

In diesem Artikel erläutert Hiroki Nishiyama, Global Manager of Data Center Marketing Mitsubishi Electric Corporation die Herausforderungen dieser wichtigen Zukunftsbranche.

„Die Veränderungen, die durch den digitalen Wandel ausgelöst wurden, führen zu enormen Investitionen auch in Datenzentren. Es werden weltweite Wachstumsraten bis zu 17,5 Prozent erwartet.“ Das macht diesen Geschäftsbereich so attraktiv, wirft aber die Frage auf, was eigentlich konkret in einem Datenzentrum benötigt wird. Neben der offensichtlichen und unverzichtbaren Hardware wie IT-Server gibt es drei wichtige Punkte für den erfolgreichen Betrieb eines Datenzentrums: Effizienz, Redundanz, Nachhaltigkeit.

Effizienz

Steigerung der Energieeffizienz bei der Kühlung von IT-Servern

Energieeffizienz ist ein Schlagwort, denn Datenzentren sind echte Stromfresser. Angefangen bei der Rund-um-die-Uhr-Versorgung der wichtigen IT-Server, über die Bereitstellung von Backup-Systemen in Form von unterbrechungsfreien Stromversorgungen (USV) und nicht zuletzt für die Kühlung der Anlage. Denn IT-Server produzieren viel Wärme, was nicht nur verschwendeter Energie ist, sondern auch unter Kontrolle gehalten werden muss. Zu hohe Umgebungstemperaturen gefährden elektrische Komponenten, was zu Ausfällen der IT-Server führen kann.

So kann man zwei Fliegen mit einer Klappe schlagen. Auf der einen Seite eine effiziente Kühlung, auf der anderen die Vermeidung von verschwendeter Energie. Das Ziel ist eine optimale Umgebung, um die Leistungsfähigkeit der Server so lange wie möglich zu erhalten.

Nishiyama fügt hinzu: „Ein Beispiel: ein Serverraum enthält 50 Server. Zusammen würden sie etwa 17 bis 18 kW Wärme pro Stunde erzeugen. Das wären 15 durchschnittliche Heizungen oder ein kleiner Ofen, die ununterbrochen laufen. Zusätzlich gibt es noch zusätzliche Wärmeeffekte durch die USV, Router und Switches, die Beleuchtung sowie die Exposition durch eventuell vorhandene Fenster. Insgesamt wird also jede Menge Wärme erzeugt und möglicherweise gespeichert.“ Nishiyama ergänzt:, Im Durchschnitt laufen elektronische Geräte wie Server bei 30 °C bis 40 °C, ein Datenzentrum aber wird in der Regel auf 18 °C bis 25 °C abgekühlt. Dies bedeutet kontinuierliche Kühlung, die ironischerweise mehr Energie verbraucht als der tatsächliche Betrieb. Ein Grund mehr, dem Thema Energieeffizienz eine der höchsten Prioritäten einzuräumen.“

Einsparpotential gibt es auch bei Lüftungsanlagen. Die Steuerung des Luftstroms durch einen Frequenzumrichter reduziert den Stromverbrauch drastisch. Eine einfache Auto-Tuning-Funktion hilft zum Beispiel beim automatischen Parametrieren der Anwendung/Lasten.

Bei neueren Kühltechnologien wie Kühltürmen und Lüftungsanlagen werden Frequenzumrichter häufig serienmäßig eingebaut. Falls nicht, lassen sie sich einfach nachrüsten und können so kurzfristig zur Reduzierung des Stromverbrauchs beitragen. Dies führt zu Kosteneffizienz und Nachhaltigkeit.

Aber was passiert, wenn das Kühlsystem in einem Datenzentrum ausfällt? Eine Lösung hierfür können Frequenzumrichter mit vorbeugenden Wartungsfunktionen sein. Werden Lastcharakteristiken in Echtzeit überwacht, können Abfälle im Leistungsprofil frühzeitig erkannt werden. Solche präventiven Wartungsfunktionen ermöglichen es Betreibern, Anomalien wie Verstopfung von Filtern oder Auswirkungen von verschlissenen Lagern zu bemerken. So kann die Wartung rechtzeitig geplant und die Ausfallzeiten reduziert werden.

Visualisierung des Status zur Rationalisierung des Betriebs

Die Visualisierung des Wartungsstatus hilft dabei, den Betrieb aufrechtzuerhalten. Der Arbeitsaufwand für Wartungstechniker wird dadurch effektiv reduziert.

„Eine fortschrittliche Visualisierung kann mehrere Subsysteme überwachen, zum Beispiel Strom und Beleuchtung, Klimaanlagen und sogar Katastrophenschutzsysteme“, erklärt Nishiyama. „Ein flexibles SCADA-System hilft bei der Erweiterung bis hin zur Implementierung redundanter Überwachungssysteme.‘‘

Nishiyama fügt hinzu: „SCADA-Systeme wie zum Beispiel GENESIS64 von ICONICS bieten die Möglichkeit den Echtzeit-Status des Rechenzentrums durch grafische Darstellung der Daten aus verschiedenen Subsystemen zu überwachen. Im Falle eines Gerätefehlers kann das SCADA-Überwachungssystem so konfiguriert werden, dass es die möglichen Ursachen in der Reihenfolge ihrer Wahrscheinlichkeit auflistet, um die Fehlersuche zu erleichtern.“

Mit Cloud-Diensten in Kombination mit SCADA-Systemen können größere Datenmengen verarbeitet werden. Das ermöglicht eine integrierte und zeitgleiche Überwachung mehrerer Datenzentren. Dies wird umso wichtiger, da die Zahl der Mikro- bis hin zu Hyper-Scale-Rechenzentren weltweit zunimmt. Der Einsatz von Geo-SCADA-Systemen wird die Fernüberwachung von vielen Endgeräten wie PCs, Mobilgeräten und Smart Glases ermöglichen, um die Überwachung und Wartung dieser Standorte zu erleichtern.

Redundanz

Verringerung der Risiken durch redundante Systeme

Existenziell wichtig ist die Aufrechterhaltung des laufenden Betriebs, egal was geschieht. Redundanz für die Server, aber auch für die verschiedenen Betriebssysteme wie Stromversorgung, Kühlung oder Sicherheitssysteme ist essentiell, da diese kritische Faktoren für die Aufrechterhaltung der Anlagen sind.

„Die präzise Steuerung und Integration von HLK-Systemen zur Aufrechterhaltung von verschiedenen Faktoren für die Temperatur und Luftqualität werden aufgrund ihrer robusten industriellen Spezifikationen häufig von programmierbaren Steuerungen (SPS) verwaltet“, erklärt Nishiyama. „Um die Risiken zu verringern, installieren Datenzentren in der Regel redundante Kühlsysteme, bei denen parallel zur Haupt-SPS eine doppelte Standby-SPS installiert werden kann. Falls die Stromquelle ausfällt, wird die Steuerung sofort von der Haupt-SPS auf die Standby-SPS umgeschaltet.“

Redundante SPS-Systeme ermöglichen nicht nur den Aufbau eines hochflexiblen Klimatisierungssystems, sondern werden auch eingesetzt, um die Zuverlässigkeit anderer Geräte, wie zum Beispiel Kältemaschinen, zu gewährleisten, da diese während des Betriebs des Datenzentrums nicht abgeschaltet werden können. „Redundante SPSen waren eher kostspielig. Die aktuelle modulare Melsec-iQ-R-SPS von Mitsubishi Electric ist eine zuverlässige Hybridlösung, bei der ein einzelnes redundantes Schaltmodul zu einer Standard-Industrie-SPS hinzugefügt werden kann. Dadurch werden die System- und Wartungskosten reduziert, ohne dass die Redundanz aufgrund der hohen Qualität und Robustheit der heutigen SPS-Komponenten beeinträchtigt wird“, fügt Nishiyama hinzu.

Physische Trennung redundanter Systeme

Bei redundanten SPS-Systemen ist es außerdem wichtig, dass die Haupt- und die Standby-SPS physisch voneinander getrennt sind. Das heißt, sie müssen eine andere Stromquelle und einen anderen Installationsort haben, um den „Schutz“ zu maximieren. Unter diesen Umständen sollten die Haupt- und die Stand-By-SPS durch ein Glasfaser-Kabel verbunden sein. Das vermeidet Probleme durch elektrisches Rauschen und verkürzt im Notfall die Umschaltzeit zwischen den beiden SPSen.

„Die Verwendung von redundanten SPSen ist wirklich eine kniffelige Angelegenheit. Man sollte bei der Planung des Standorts der beiden SPSen darauf achten, dass sie nicht zu weit voneinander entfernt sind, aber auch nicht zu nahe beieinander. Sie dürfen auf keinen Fall im selben Schaltschrank untergebracht sein, da dies sonst den Zweck des redundanten Systems zunichtemachen würde“, betonte Nishiyama. „Es ist wichtig, ein Hochgeschwindigkeitssystem mit einer Schaltzeit von etwa 10 ms oder weniger anzustreben, um eine kontinuierliche Steuerung mit hoher Zuverlässigkeit zu ermöglichen.“

Nachhaltigkeit

Wie lässt sich nun ein zuverlässiges Datenzentrumssystem aufbauen?

In einer Zeit, in der die Nachfrage nach digitalen Diensten steigt, wächst auch der Druck auf die Anbieter, Ausfälle auch nur für kurze Zeit zu vermeiden. Das macht die Verfügbarkeit von Datenzentren zu einem kritischen Faktor. Wenn heute bei einem der großen Cloud-Anbieter ein Ausfall auftritt, sei es auch nur für 30 min, sorgt das weltweit für Schlagzeilen.

„Die Nachfrage nach digitalen Diensten steigt. Bei dem Bau von Datenzentren ist es wichtig, sich daran zu erinnern, dass es nicht nur um die IT geht, sondern auch darum, wie man seine Systeme verwaltet und sie redundant, effizient und nachhaltig macht“, erklärt Nishiyama.

Kleine, praktische Schritte, die Nutzung bekannter Technologien wie der Einsatz von Frequenzumrichtern zur Steigerung der Energieeffizienz von Kühlsystemen, die Visualisierung des Gesamtstatus des Rechenzentrums zur Rationalisierung des Betriebs oder vor allem die Verringerung von Risiken durch redundante Systeme – all dies kann mit minimalen Kosten, aber maximalem Nutzen erreicht werden. Die Zusammenarbeit mit Partnern, die über Know-how, Erfahrung und vor allem über ein Ökosystem von Produkten, Lösungen und Partnern verfügen, ist ein guter Weg, um Risiken zu minimieren, Kosten langfristig zu managen und auch die Umwelt nicht aus den Augen zu verlieren.

Verwandte Artikel