Kommentar zu Datenspeicherung und -verarbeitung Lohnt der Absprung in die Cloud?

Bild: Osisoft; iStock, vuk8691
13.04.2018

Einige Experten sind der Meinung, dass alle Daten und Anwendungen in die Cloud wandern werden. Andere prognostizieren, dass ungefähr 40 Prozent der Daten dort gespeichert, verwaltet, analysiert und aufbewahrt werden, wo sie entstanden sind – am Rande des Internets. Wer von beiden Recht hat, erklärt Michael Kanellos, IoT-Analyst bei Osisoft.

Die Analyse von Daten wird in Zukunft sowohl lokal am Rande des Internets in einem Datenzentrum, als auch in einer öffentlichen, privaten oder hybriden Cloud ablaufen. Die gleiche Dynamik können wir in der IT beobachten. Durch das mit dem PC eingeführte Modell der dezentralen Ausführung von Computeraufgaben sind zentrale Server nicht überflüssig geworden. Und vermutlich haben Sie mit der Geburt der Cloud Ihr Notebook auch nicht durch ein Terminal ersetzt. Wo Sie Ihre Analysefunktionen durchführen, wird letztlich von den folgenden fünf Faktoren abhängen:

1. Geschwindigkeit

Brauchen Sie die Informationen gleich oder können Sie warten? Je schneller Sie Antworten benötigen, desto weniger kommt die Cloud in Frage. Erinnern Sie sich an die letzte große Sonnenfinsternis im Sommer 2017 in den USA? Nach Informationen des Energieversorgers Caiso, der für 80 Prozent der Energieversorgung des Staates Kalifornien verantwortlich ist, fehlten durch die Verdunkelung der Sonne im Netz ungefähr 6 GW Energie – genug, um vier Millionen Haushalte zu versorgen. Allerdings war der Spuk bereits nach ein paar Minuten wieder vorbei. Caiso rief alle vier Sekunden die Daten der Generatoren im Netz ab, um durch Schwankungen verursachten Problemen zu auszugleichen.

2. Zuverlässigkeit

Wenn Twitter für eine Stunde ausfällt, dann scherzen die Leute nur darüber. Würde die Wasserversorgung an der Ostküste der USA plötzlich ohne Ankündigung ausfallen, wären besorgte Anrufe und Panik die Folge. Ölförder-, Berg- und Tagebauunternehmen setzen für ihre komplexen Analytikfunktionen auf Cloud-Technologien, beispielsweise bei der Analyse bestehender Prozesse hinsichtlich der Einsparmöglichkeiten oder Optimierung. Das macht Sinn, weil man Tausende Server gleichzeitig auf massive Rechenprobleme ansetzen kann und weil die Antwort nicht wirklich dringend benötigt wird.

Dreht es sich dagegen um Live-Vorgänge, so bleiben diese lokal. Können Sie sich vorstellen, einen 40-Tonnen-LKW über die Cloud zu steuern? Oder Bohrungen in der Tiefsee? Unerwartete Probleme können rasch Millionen von Dollar an Reparaturkosten und Umsatzverlusten verursachen. Darüber hinaus müssen Unternehmen in einem solchen Fall den IT-Support und Betten für die zusätzlichen Mitarbeiter mit dem Helikopter einfliegen. Die Risiken und Kosten, die entstehen können, wenn nicht lokal verarbeitet wird, sind geradezu astronomisch.

3. Bandbreite und deren Kosten

Werden Daten in sintflutartiger Menge generiert, von denen nicht alle für eine vernünftige Analyse benötigt werden, so sollte man nur eine Zusammenfassung übermitteln. Eine intelligente Fabrik verfügt vielleicht über 50.000 Sensoren, die es zu verfolgen gilt und die mehrere Petabyte Daten am Tag generieren. Selbst ein normales Bürogebäude erzeugt 250 GB oder mehr Daten. Anstatt krampfhaft zu versuchen, Daten in der Cloud zu analysieren oder Thermostate aus der Ferne zu kontrollieren, können viele dieser Aufgaben günstiger und einfacher vor Ort durchgeführt werden. Übrigens: Viele Smart-Lighting-Unternehmen sind bereits von einer cloudbasierten auf eine lokale Steuerung umgeschwenkt. Windfarmen können aus Hunderten von einzelnen Windturbinen bestehen, die jeweils umfangreiche Datenmengen generieren. Dazu zählen etwa Rotorumdrehungen pro Minute, Windrichtung und -geschwindigkeit, Anströmwinkel der Rotoren und vieles mehr. Es ist nicht wirklich praxisnah, die Kosten für die Übertragung all dieser Daten an die Cloud in Kauf zu nehmen, um den Gesamtzustand der Anlage zu überwachen.

Wikibon zitiert eine Fallstudie zu einer abseits gelegenen Windfarm mit Sicherheitskameras und anderen Sensoren. Mit einer Entfernung zwischen Cloud und Windfarm von 300 km und einer angenommenen Reduktion des Verkehrsaufkommens durch den Einsatz von Edge-Computing konnten die Kosten für Kontrolle und Datenverarbeitung innerhalb von drei Jahren von 81.000 auf 29.000 US-Dollar gesenkt werden. Das Analyseinstitut ist der Meinung, dass sich das Internet of Things für die überwiegende Mehrheit von Sensorprojekten zu einem Edge-plus-Cloud-Computing-Konzept entwickeln wird. In diesem und anderen ähnlich gelagerten Einsatzfällen erweist sich ein Ansatz als kosteneffizienter, bei dem die Sensoren lokal ausgewertet und nur Übersichtsdaten in die Cloud übermittelt werden.

4. Der Ort der Aufgabe

Fragen Sie sich, wer die Daten benötigt. Sind es die Ingenieure in der Fabrik oder eine ganze Reihe unterschiedlicher Leute, Unternehmensabteilungen oder geografisch weit verstreute Interessenten? Bezieht sich das vorliegende Problem auf eine bestimmte Fertigungslinie oder das Gesamtkonzept der Produktion? Ist es ein lokales Problem, so sollten Sie es vor Ort speichern und analysieren. Die Automotive-Forschungsgruppe der RWTH Aachen entwickelt Verfahren zur Korrektur von Problemen in der Produktion von Batterien für Elektrofahrzeuge. Der Wissenschaftler Christoph Lienemann ist davon überzeugt, dass mit einer Überwachung vor Ort die Kosten um 20 Prozent und die Ausschussrate von Batteriezellen von 10 auf 2 Prozent gesenkt werden können. Lokale Erfolge können dann natürlich repliziert und unternehmensweit mit anderen geteilt werden.

5. Die Komplexität der Aufgabe

Dies ist der alles bestimmende Faktor. Untersuchen Sie einige wenige Datenströme, um ein aktuelles Problem wie die Optimierung eines Förderbandes in einer Fabrik zu lösen oder vergleichen Sie Tausende von Fertigungslinien in mehreren Fabriken? Beobachten Sie die Gesundheitsdaten eines Patienten, um einen Therapieablauf zu bestimmen oder entwickeln Sie ein neues Therapieverfahren, für das Sie Millionen unterschiedlicher Proteine studieren müssen? Menschen werden als Business-Intelligence-Plattform meist unterschätzt. Die Schlussfolgerungen, die wir treffen können, gehen weit über das hinaus, was Maschinen leisten können. Ab einem bestimmten Punkt können wir gut extrapolieren.

Je nach Art der zu betrachtenden Analysefunktionen werden sich viele der angesprochenen Faktoren vermischen und überlappen; einigen wird höhere Priorität zukommen als anderen. Wie bei vielen datenbezogenen Dingen ist die Antwort am Ende nicht so eindeutig, wenn es darum geht, wo die Daten und Applikationen dieser Welt residieren sollen. Diese Frage wird in erster Linie durch die Faktoren Zeit, Problemstellung, Bandbreite, Zuverlässigkeit, Sicherheit und Geschwindigkeit beantwortet. Die Wahrheit ist irgendwo dort draußen – sie ist überall und nicht nur da, wo Sie sie vermuten.

Firmen zu diesem Artikel
Verwandte Artikel