publish-industry Verlag GmbH

Wie Unternehmen mit Edge-, Cloud- und Fog-Computing arbeiten sollten.

Bild: iStock, xavierarnau

Edge und Cloud im Clinch Die richtige Computing-Strategie wählen

29.08.2019

Edge-, Cloud- und Fog-Computing ‚greifen‘ immer mehr um sich und viele Unternehmen sind ratlos, wie man das Ganze anfangen soll. Zunehmend finden sich aber Plattformen und Konsortien zusammen, um Lösungen und Hilfestellungen zu erarbeiten.

Sponsored Content

„Grob betrachtet ist Edge Computing alter Wein in neuen Schläuchen, im Detail sind jedoch spannende neue Entwicklungen zu beobachten“, bringt es Dr. Alexander Willner, Leiter des Industrial IoT Centers bei Fraunhofer Fokus auf den Punkt. Die grundsätzliche Programmierung der Anlagen und auch die dazugehörige Datenverarbeitung ist etabliert und geschieht direkt an der Maschine beziehungsweise innerhalb des Produktionsnetzwerks. Analog ist Cloud Computing das Verfrachten von Prozessen in die Cloud. Und neblig wird’s bei Fog Computing – hier überschneiden sich beide Bereiche.

Beim Edge-Computing werden Datenströme möglichst an Ort und Stelle verarbeitet. Das kann direkt auf der Maschine, in einem Gateway, in verschiedenen Netzwerkkomponenten, im lokalen Rechenzentrum des Unternehmensnetzwerks oder topologisch in der Nähe des Unternehmens geschehen. Je näher Daten auf Sensoren und andere Komponenten im Unternehmensnetz gesammelt und vorverarbeitet werden, desto weniger Daten überträgt man beispielsweise in die Cloud und schutzwürdige Daten verlassen unter Umständen gar nicht erst das eigene Netzwerk innerhalb der Produktion.

Fog Computing ist eine Mischung aus Edge und Cloud Computing. Komponenten, Rechenleistung und Software-Anwendungen bewegen sich dabei zu den Endgeräten hin, für bessere Effizienz und kürzere Latenzzeiten. Dabei werden die Informationen nicht komplett in die Cloud geschaufelt, sondern lokal vorverarbeitet. Anders gesagt, hier wird im Edgebereich die Spreu vom Weizen getrennt und nur der ‚Weizen‘ in die Cloud transportiert.

Latenzzeit vs. Rechenleistung

Allgemein bietet sich Edge-Computing dann an, wenn niedrige Latenzzeiten, eine Beschränkung der Bandbreite oder Datenschutzaspekte gegeben sind, was das Versenden von Daten in die Cloud ausbremst. Cloud Computing dagegen dominiert, wenn eine erhebliche Rechenleistung gefragt ist, z.B. um die Daten aus verschiedenen Werken eines Unternehmens standortübergreifend zu analysieren.

Der Kern der klassischen Automatisierung ist die SPS. „Ein grundsätzlicher Trend in unterschiedlichen Anwendungsbereichen ist, Hardware durch Software zu ersetzen. In der Automatisierung könnten klassische Hardware-SPS durch virtualisierte Soft-SPS auf günstigen Edge-Knoten ersetzt werden“, so Alexander Willner. Aber das geht nicht überall. Die garantierte Einhaltung harter Echtzeitanforderungen auf Mehrzweckhardware unter Verwendung von Virtualisierungsumgebungen, sind noch nicht abschließend gelöste Herausforderungen.

Noch fehlende Standards

Leider gibt es im Bereich Edge kaum Standards und die Firmen kommen um anbieterabhängige Lösungen noch nicht herum. Dazu herrschen in den Firmen oft Insellösungen vor, was zusammen mit den fehlenden Standards die IT-Landschaft sehr komplex macht. Industrie 4.0 verlangt aber eine intelligente Vernetzung entlang der gesamten Wertschöpfungskette. „Das Edge-Computing Konsortium Europa befindet sich derzeit noch in Gründung und ein Ziel ist es, relevante Standards beziehungsweise Lücken auf unterschiedlichsten Ebenen zu identifizieren und Empfehlungen auszusprechen. Am Ende entsteht hoffentlich ein Hersteller-unabhängiges Edge-Computing-System“, wünscht sich Alexander Willner.

Open Edge Computing

Eine Perspektive zeigt hier das Open Edge Computing. „Wichtig für ein effizientes Edge Computing sind offene Schnittstellen“, so Dr. Klaus Wölfel, Geschäftsführer von Nexedi Deutschland. In dem Unternehmen hat man deshalb das Open Edge Cloud Computing System SlapOS entwickelt. Open bedeutet hier aber auch eine geräteübergreifende Sicherheit. "Deshalb kommunizieren die Geräte bei SlapOS nur verschlüsselt miteinander“, betont Klaus Wölfel. Der zentrale Server hat keine Kenntnis über die privaten Schlüssel der Edge Geräte- und Dienste, so dass es hier keinen zentralen Angriffspunkt gibt.

Diese Software arbeitet mit einer minimalistischen, offenen Architektur, bei der die gewünschten Zustände von Diensten und Geräten über sogenannte "Promises" gesteuert werden. Stürzt ein Gerät ab oder wird die Netzwerkverbindung unterbrochen, dann verbindet sich das Gerät nach dem Ausfall wieder mit dem Master und fragt den gewünschten Zustand ab. SlapOS basiert auf dem Nanocontainer-Prinzip, bei dem die unterschiedlichen Dienste auf eine Art und Weise gekapselt werden, die auch auf kleinen Geräten funktioniert. Ein Anwendungsfall ist "Factory-in-the-box", bei dem automatisch Softwaredienste wie ERP und CDN für einen europäischen Automobilhersteller auf Mini-Servern direkt in seinen örtlichen Montagewerken in Afrika und Asien bereitgestellt werden.

Open Source Projekt

Eng verzahnt mit SlapOS ist das unter Experten bekannte Open Source Projekt re6stnet, bei dem sich Edge Geräte über ein Mesh-Netzwerk miteinander verbinden. Damit können die normalerweise verbundenen Geräte auch dann miteinander kommunizieren, wenn es im normalen Netzwerk rounting-Probleme gibt. Insbesondere ermöglicht es eine Kommunikation mit Produktionsstätten in China, wo normale VPN-Verbindungen nach Europa oft blockiert werden.

„Mit Edge Computing geht’s weit in die Zukunft. Viele Organisationen wurden zu Edge Computing gegründet, denn der Bedarf ist da. Dazu wird die Computerleistung günstiger und es kommen technisch einfachere Lösungen zur Datensicherheit“, berichtet Dr. Albert Krohn, Engineering & Product Management Industrial - Data Intelligence bei Softing. Mächtige Frameworks gibt’s im Edge-Bereich noch nicht, werden aber kommen. Dazu kommt, dass Edge Computing noch etwas mühsam ist. „Abhilfe würden open source Plattformen schaffen“, so Dr. Krohn.

Edge und Cloud im Clinch

Die Algorithmen zu Maschine Learning können auf der Edge laufen. Sicherheit und Latenz sind hier kein Problem und die Kosten kalkulierbar. Nur für KMUs ist Edge ein Stück weit mühsamer. Hier könnte die Cloud mitunter der leichtere technische Einstieg sein, denn es gibt Plattformen und viele aufeinander abgestimmte Tools, die es bei Edge Computing noch nicht gibt. „Edge Computing ist etwas sperriger, aber für viele Kunden der angenehmere Einstieg“, ist sich Albert Krohn sicher und sieht in den nächsten Jahren einen Kampf zwischen Edge und Cloud.

Mockfog als Hilfestellung

„Als Hilfestellung für Unternehmen hier haben wir Mockfog entwickelt, zum Testen von Fog- und Edge-Anwendungen“, berichtet Prof. David Bermbach von der Mobile Cloud Computing Research Group, TU Berlin. In dem Projekt Mockfog ersetzt man jeden Edge-Server durch einen Cloud-Server. Bei MockFog nutzen die Wissenschaftler Cloud-Automatisierung, um die Cloud-Server und die Netzwerke dazwischen von der Qualitätserfahrung möglichst dicht an die emulierten Edge-Server heranzubringen. So kann man etwa Netzwerkfehler einfach simulieren.

Diese Testsoftware ist praktisch, wenn die physische Infrastruktur noch nicht existiert, weil die Edgeserver noch nicht beschafft wurden; wenn Software in Kontexten getestet werden soll, die so real nicht existieren, z.B. weil man überlegt, eine andere Hardware für die Edgeserver zu kaufen oder wenn man Software testen möchte und (insbesondere) die Edgeserver einfach mit dem Produktivsystem ausgelastet sind.

Bildergalerie

  • Für Edge Computing ist eine Referenzarchitektur (RAMEC4) in Arbeit – angelehnt an die Referenzarchitektur für Industrie 4.0 (RAMI4.0).

    Bild: Edge Computing Consortium Europe

Verwandte Artikel