Nachgefragt Ist die Datenflut digitaler Fabriken nur mit Edge Computing beherrschbar?

HARTING Technologiegruppe

Lässt sich mit Edge Computing ein Daten-Chaos vermeiden?

Bild: iStock, DrAfter123
15.02.2019

Die Vorteile von Edge Computing sind klar: Datenverarbeitung und -analyse in Echtzeit ohne Latenzzeiten wie in der Cloud - was gerade bei der Steuerung von Maschinen und aus Safety-Sicht essenziell wichtig sein kann. Außerdem bleiben sensible Daten innerhalb der Produktion, nur gefilterte und vorselektierte Daten werden bei Bedarf in die Cloud weitergeleitet und verlassen die Unternehmensgrenzen. Doch lässt sich auch nur mit Edge Computing ein Daten-Chaos vermeiden?

Sponsored Content

Kann mit Edge Computing die Datenflut digitaler Fabriken beherrschbar bleiben? Diese Frage haben wir verschiedenen Unternehmen gestellt:

Bildergalerie

  • Derzeit werden nur rund ein Prozent der Daten, die in einer Produktion entstehen, effektiv genutzt. Mithilfe des IIoT kann der Anwender Informationen aus seinen Maschinen und Anlagen ziehen, die weit über einfache Alarmmeldungen oder Eventinformationen hinausgehen. Zum Beispiel Informationen darüber, ob ein Maschinenteil Verschleißerscheinungen aufweist und wann es zum Ausfall kommen wird. Je nach Anwendung und Datenvolumen werden die auf OT-Ebene gesammelten Daten mit unterschiedlichen Herangehensweisen in die Cloud übertragen. Daher bieten wir verschiedene Typen von Edge-Geräten an, um für jeden Anwendungsfall eine Lösung zu haben. Greift etwa ein Sensor stündlich ein Signal ab, kann es zweckmäßig sein, die Daten direkt in die Cloud zu schicken. Ist das Volumen an Daten jedoch größer, lohnt es sich, diese schon an der Maschine zu aggregieren. 
Das hat zwei Vorteile: Zum einen sinken Bandbreitenbedarf und Kosten für die Cloud; zum anderen gehen keine Daten verloren, wenn die Verbindung unterbrochen wird, da ausreichend Speicherplatz zum Puffern vorhanden ist.
René Blaschke, Produktmanager IoT, B&R

    Derzeit werden nur rund ein Prozent der Daten, die in einer Produktion entstehen, effektiv genutzt. Mithilfe des IIoT kann der Anwender Informationen aus seinen Maschinen und Anlagen ziehen, die weit über einfache Alarmmeldungen oder Eventinformationen hinausgehen. Zum Beispiel Informationen darüber, ob ein Maschinenteil Verschleißerscheinungen aufweist und wann es zum Ausfall kommen wird. Je nach Anwendung und Datenvolumen werden die auf OT-Ebene gesammelten Daten mit unterschiedlichen Herangehensweisen in die Cloud übertragen. Daher bieten wir verschiedene Typen von Edge-Geräten an, um für jeden Anwendungsfall eine Lösung zu haben. Greift etwa ein Sensor stündlich ein Signal ab, kann es zweckmäßig sein, die Daten direkt in die Cloud zu schicken. Ist das Volumen an Daten jedoch größer, lohnt es sich, diese schon an der Maschine zu aggregieren.

    Das hat zwei Vorteile: Zum einen sinken Bandbreitenbedarf und Kosten für die Cloud; zum anderen gehen keine Daten verloren, wenn die Verbindung unterbrochen wird, da ausreichend Speicherplatz zum Puffern vorhanden ist.

    René Blaschke, Produktmanager IoT, B&R

    Bild: B&R

  • Edge-Computer sind hochleistungsfähige Rechner, die über aktuellste Prozessortechnologie und erhebliche Speicherkapazitäten verfügen. Ihre Einsatzmöglichkeiten lassen sich erweitern, etwa für spezielle Berechnungen durch zusätzliche Grafikeinheiten oder FPGAs. Viele Aufgaben, die über die reine Datenaufnahme und Datenweiterleitung, wie etwa im Gateway-Einsatz, hinausgehen – zum Beispiel KI-Anwendungen – erledigen Edge-Computer problemlos. Doch Edge-Computer befinden sich nur selten im Stand-alone-Einsatz. Sobald Maschinen im Verbund arbeiten, ist eine zentrale Datenauswertung zur Prozessbeobachtung und -steuerung unumgänglich. Auch die bei großen Maschinen anfallende Menge an historischen Daten muss zur späteren Analyse zentral und nicht am Edge-Computer selbst vorgehalten werden.
Das IoT-Software-Framework SUSiEtec der Kontron-Schwester S&T Technologies ist genau für diese Leistungen geschaffen, nämlich Hardware-Komponenten miteinander zu verbinden – und bietet dabei noch weit mehr. Es unterstützt auch die effiziente Datenfilterung und Weiterleitung in eine Embedded, Private oder Public Cloud. SUSiEtec ist deshalb gemeinsam mit Microsoft Azure IoT Edge die ideale Lösung für die Industrie 4.0. So wird mit leistungsstarken Edge-Computern an der Maschine und Digital Twins in der Cloud das Beste aus zwei Welten kombiniert, und Latenz- und Bandbreitenprobleme werden effektiv und elegant aufgelöst.
Norbert Hauser, Vice President Marketing, Kontron S&T

    Edge-Computer sind hochleistungsfähige Rechner, die über aktuellste Prozessortechnologie und erhebliche Speicherkapazitäten verfügen. Ihre Einsatzmöglichkeiten lassen sich erweitern, etwa für spezielle Berechnungen durch zusätzliche Grafikeinheiten oder FPGAs. Viele Aufgaben, die über die reine Datenaufnahme und Datenweiterleitung, wie etwa im Gateway-Einsatz, hinausgehen – zum Beispiel KI-Anwendungen – erledigen Edge-Computer problemlos. Doch Edge-Computer befinden sich nur selten im Stand-alone-Einsatz. Sobald Maschinen im Verbund arbeiten, ist eine zentrale Datenauswertung zur Prozessbeobachtung und -steuerung unumgänglich. Auch die bei großen Maschinen anfallende Menge an historischen Daten muss zur späteren Analyse zentral und nicht am Edge-Computer selbst vorgehalten werden.

    Das IoT-Software-Framework SUSiEtec der Kontron-Schwester S&T Technologies ist genau für diese Leistungen geschaffen, nämlich Hardware-Komponenten miteinander zu verbinden – und bietet dabei noch weit mehr. Es unterstützt auch die effiziente Datenfilterung und Weiterleitung in eine Embedded, Private oder Public Cloud. SUSiEtec ist deshalb gemeinsam mit Microsoft Azure IoT Edge die ideale Lösung für die Industrie 4.0. So wird mit leistungsstarken Edge-Computern an der Maschine und Digital Twins in der Cloud das Beste aus zwei Welten kombiniert, und Latenz- und Bandbreitenprobleme werden effektiv und elegant aufgelöst.

    Norbert Hauser, Vice President Marketing, Kontron S&T

    Bild: Kontron

  • Die Fabrik der Zukunft wird die dezentrale Datenverarbeitung direkt an der Maschine, auf Edge-Servern in der Fabrikhalle und in Cloud-Anwendungen intelligent kombinieren. Für große Datenmengen und hohe Anforderungen an die Verfügbarkeit ist die dezentrale Abarbeitung bestimmter Aufgaben unerlässlich. Das gilt besonders für zeitkritische Anwendungen wie die prozessintegrierte Qualitätskontrolle. Betriebsdaten werden maschinennah vorverarbeitet, zur operativen Überwachung sowie maschinenspezifischen Analyse genutzt und komprimiert an Edge- oder Cloud-Server gesendet – mit der Einführung von 5G auch drahtlos. Die zentralen Server werden Planungsaufgaben wie OEE-Statistiken, das Ticketmanagement für die Instandhaltung und Ablaufoptimierungen über mehrere Maschinen, Linien und Werke durchführen.
Julian Weinkoetz, Produktmanagement SPS und IoT-Software, Bosch Rexroth

    Die Fabrik der Zukunft wird die dezentrale Datenverarbeitung direkt an der Maschine, auf Edge-Servern in der Fabrikhalle und in Cloud-Anwendungen intelligent kombinieren. Für große Datenmengen und hohe Anforderungen an die Verfügbarkeit ist die dezentrale Abarbeitung bestimmter Aufgaben unerlässlich. Das gilt besonders für zeitkritische Anwendungen wie die prozessintegrierte Qualitätskontrolle. Betriebsdaten werden maschinennah vorverarbeitet, zur operativen Überwachung sowie maschinenspezifischen Analyse genutzt und komprimiert an Edge- oder Cloud-Server gesendet – mit der Einführung von 5G auch drahtlos. Die zentralen Server werden Planungsaufgaben wie OEE-Statistiken, das Ticketmanagement für die Instandhaltung und Ablaufoptimierungen über mehrere Maschinen, Linien und Werke durchführen.

    Julian Weinkoetz, Produktmanagement SPS und IoT-Software, Bosch Rexroth

    Bild: Bosch Rexroth

  • Komplexe Hochgeschwindigkeitsmaschinen und -fabriken können in der Tat viele Daten erzeugen. Tatsächlich tun dies die meisten Maschinen bereits heute, aber die meisten dieser Daten werden gelöscht, indem sie einfach nicht gespeichert werden. Manchmal ist dies eine bewusste Entscheidung, manchmal aber auch nicht. Mit der heutigen Rechenleistung können diese Daten lokal und in Echtzeit an jedem Teil einer Maschine, Linie oder Fabrik analysiert, charakterisiert und gefiltert werden. Je nach Bedarf sollte dies optimiert werden. Die Menge der Datenflut ist eine bewusste Entscheidung und hängt in hohem Maße von der menschlichen Intelligenz ab.
Tim Foreman, R&D Manager, Omron

    Komplexe Hochgeschwindigkeitsmaschinen und -fabriken können in der Tat viele Daten erzeugen. Tatsächlich tun dies die meisten Maschinen bereits heute, aber die meisten dieser Daten werden gelöscht, indem sie einfach nicht gespeichert werden. Manchmal ist dies eine bewusste Entscheidung, manchmal aber auch nicht. Mit der heutigen Rechenleistung können diese Daten lokal und in Echtzeit an jedem Teil einer Maschine, Linie oder Fabrik analysiert, charakterisiert und gefiltert werden. Je nach Bedarf sollte dies optimiert werden. Die Menge der Datenflut ist eine bewusste Entscheidung und hängt in hohem Maße von der menschlichen Intelligenz ab.

    Tim Foreman, R&D Manager, Omron

    Bild: Omron

  • Grundsätzlich ist „Edge“ in seiner Größe nicht klar definiert, entsprechend könnte auch die Rechenleistung zum Entwickeln von KI-Modellen einer Fabrik an der Edge verfügbar gemacht werden. Aus wirtschaftlicher Sicht istht es allerdings sinnvoller, die Modelle zentral zu erstellen und an der Edge nur auszuführen, da die erforderliche hohe Rechenleistung zum Erstellen der Modelle nur kurz benötigt wird und damit in einem zentralen System oder der Cloud gut ausbalanciert werden kann. Auch ein weiterer Aspekt sollte bedacht werden: Edge-Komponenten, die nur Modelle ausführen, werden nicht durch Lastspitzen, externe Zugriffe oder große Speicherbereiche aus anderen Aufgaben heraus in ihrer Leistung eingeschränkt, was einen zuverlässigeren Betrieb sicherstellt.
Steffen Hartmaier, Senior IT Architect Watson IoT, IBM

    Grundsätzlich ist „Edge“ in seiner Größe nicht klar definiert, entsprechend könnte auch die Rechenleistung zum Entwickeln von KI-Modellen einer Fabrik an der Edge verfügbar gemacht werden. Aus wirtschaftlicher Sicht istht es allerdings sinnvoller, die Modelle zentral zu erstellen und an der Edge nur auszuführen, da die erforderliche hohe Rechenleistung zum Erstellen der Modelle nur kurz benötigt wird und damit in einem zentralen System oder der Cloud gut ausbalanciert werden kann. Auch ein weiterer Aspekt sollte bedacht werden: Edge-Komponenten, die nur Modelle ausführen, werden nicht durch Lastspitzen, externe Zugriffe oder große Speicherbereiche aus anderen Aufgaben heraus in ihrer Leistung eingeschränkt, was einen zuverlässigeren Betrieb sicherstellt.

    Steffen Hartmaier, Senior IT Architect Watson IoT, IBM

    Bild: IBM

  • Es gibt verschiedene Ansätze, um in digitalen Fabriken Erkenntnisse aus großen Datenmengen zu gewinnen. Mit Azure IoT Edge ist es möglich, Informationen direkt dort zu verarbeiten, wo sie benötigt werden: auf Endgeräten und Maschinen. Das beschleunigt Reaktionszeiten und spart Zeit und Geld, weil nur jene Daten in die Cloud übermittelt werden, die übermittelt werden sollen. Je nach Anwendungsfall variiert der Anteil an IoT-Analysen, die an der Edge oder in der Cloud ausgeführt werden. Wer ein Machine-Learning-Modell trainiert, wird hierfür die Cloud verwenden. Genutzt wird das Modell aber dann meistens in der Edge. Dienste zur Vernetzung und Verwaltung von IoT-Geräten und Edge-Modulen, wie Azure IoT Hub, werden immer häufiger verwendet.
Oliver Niedung, IoT Principle Solution Specialist, Microsoft Deutschland

    Es gibt verschiedene Ansätze, um in digitalen Fabriken Erkenntnisse aus großen Datenmengen zu gewinnen. Mit Azure IoT Edge ist es möglich, Informationen direkt dort zu verarbeiten, wo sie benötigt werden: auf Endgeräten und Maschinen. Das beschleunigt Reaktionszeiten und spart Zeit und Geld, weil nur jene Daten in die Cloud übermittelt werden, die übermittelt werden sollen. Je nach Anwendungsfall variiert der Anteil an IoT-Analysen, die an der Edge oder in der Cloud ausgeführt werden. Wer ein Machine-Learning-Modell trainiert, wird hierfür die Cloud verwenden. Genutzt wird das Modell aber dann meistens in der Edge. Dienste zur Vernetzung und Verwaltung von IoT-Geräten und Edge-Modulen, wie Azure IoT Hub, werden immer häufiger verwendet.

    Oliver Niedung, IoT Principle Solution Specialist, Microsoft Deutschland

    Bild: Microsoft

  • Der Vorteil von Edge Computing ist die Unmittelbarkeit, mit der in Echtzeit und in Device- oder Prozessnähe Daten generiert werden und mit der auf Daten reagiert werden kann. Dabei grenzt Edge Computing die entstehende Datenflut nicht ein und kann sie bereits am Entstehungsort strukturieren, säubern und sogar Vorhersagen treffen, oder Aktivitäten einleiten, sodass Daten on-premise oder im Cloud-Bereich reduziert werden. Edge Computing wird idealerweise dafür genutzt, Prozesse und Vorhersagen zu optimieren oder Daten prozessnah zu nutzen. Es kann dazu dienen, Datenkonsolidierungen und Datensäuberungen vorzunehmen und Informationen gezielt in die Cloud-Umgebung einzuspeisen. Edge Computing kann auch eine prozessnahe Reaktion in Form von Vorhersagen, Anweisungen oder Prozesseingriffen anstoßen. Auf diese Weise werden zusätzliche Optimierungspotenziale identifiziert und umgesetzt. 
Cloud Computing zeigt sich überall da als die bessere Lösung, wo man verschiedene Bereiche miteinander vergleichen will, die nicht prozessnah sind und wo die Zentralisierung von Daten für die Analyse und Entscheidungsfindung erforderlich ist – beispielsweise im Vergleich über mehrere Linien oder Werke hinweg, wenn verschiedene Prozesse miteinander kombiniert werden.Edge Computing verfügt über sehr positive Alleinstellungsmerkmale, gerade was den Zeitfaktor betrifft, aber mit Cloud Computing lassen sich größere Datenmengen auswerten und nutzen. Optimal ist also eine Kombination aus beiden.
Uwe Küppers, Senior Business Development Manager Information Solution, Rockwell Automation

    Der Vorteil von Edge Computing ist die Unmittelbarkeit, mit der in Echtzeit und in Device- oder Prozessnähe Daten generiert werden und mit der auf Daten reagiert werden kann. Dabei grenzt Edge Computing die entstehende Datenflut nicht ein und kann sie bereits am Entstehungsort strukturieren, säubern und sogar Vorhersagen treffen, oder Aktivitäten einleiten, sodass Daten on-premise oder im Cloud-Bereich reduziert werden. Edge Computing wird idealerweise dafür genutzt, Prozesse und Vorhersagen zu optimieren oder Daten prozessnah zu nutzen. Es kann dazu dienen, Datenkonsolidierungen und Datensäuberungen vorzunehmen und Informationen gezielt in die Cloud-Umgebung einzuspeisen. Edge Computing kann auch eine prozessnahe Reaktion in Form von Vorhersagen, Anweisungen oder Prozesseingriffen anstoßen. Auf diese Weise werden zusätzliche Optimierungspotenziale identifiziert und umgesetzt.

    Cloud Computing zeigt sich überall da als die bessere Lösung, wo man verschiedene Bereiche miteinander vergleichen will, die nicht prozessnah sind und wo die Zentralisierung von Daten für die Analyse und Entscheidungsfindung erforderlich ist – beispielsweise im Vergleich über mehrere Linien oder Werke hinweg, wenn verschiedene Prozesse miteinander kombiniert werden.Edge Computing verfügt über sehr positive Alleinstellungsmerkmale, gerade was den Zeitfaktor betrifft, aber mit Cloud Computing lassen sich größere Datenmengen auswerten und nutzen. Optimal ist also eine Kombination aus beiden.

    Uwe Küppers, Senior Business Development Manager Information Solution, Rockwell Automation

    Bild: Rockwell Automation

  • Die Stärken von Edge Computing liegen auf der Hand: Konnektivität zu Bestandsmaschinen („digitaler Retrofit“), Datenverarbeitung direkt an der Maschine und Datenreduktion. Das Thema der Latenzzeiten sehe ich nicht als das kritische Thema. Die Themen Konnektivität und Datenvorverarbeitung sind dabei klar im Fokus. Die Steigerung der OEE durch Optimierung der Maschinen selbst gilt inzwischen als schwierig. Das größte Potenzial liegt in der Vernetzung von Maschinen und Abläufen. Hier spielt Edge Computing seine Stärken aus. Durch eine dezentrale Vernetzung kann man die Heterogenität und Komplexität der Maschine bewältigen. Zudem macht Edge Computing mithilfe von erfahrenen Menschen die riesigen „Big Data“-Mengen zu beherrschbarer „Smart Data“.
Dr. Jan Regtmeier, Direct Product Management, Harting IT Software Development

    Die Stärken von Edge Computing liegen auf der Hand: Konnektivität zu Bestandsmaschinen („digitaler Retrofit“), Datenverarbeitung direkt an der Maschine und Datenreduktion. Das Thema der Latenzzeiten sehe ich nicht als das kritische Thema. Die Themen Konnektivität und Datenvorverarbeitung sind dabei klar im Fokus. Die Steigerung der OEE durch Optimierung der Maschinen selbst gilt inzwischen als schwierig. Das größte Potenzial liegt in der Vernetzung von Maschinen und Abläufen. Hier spielt Edge Computing seine Stärken aus. Durch eine dezentrale Vernetzung kann man die Heterogenität und Komplexität der Maschine bewältigen. Zudem macht Edge Computing mithilfe von erfahrenen Menschen die riesigen „Big Data“-Mengen zu beherrschbarer „Smart Data“.

    Dr. Jan Regtmeier, Direct Product Management, Harting IT Software Development

    Bild: Harting

Verwandte Artikel