Daten am richtigen Ort sinnvoll nutzen Deshalb kann die Cloud nicht das Allheilmittel für Ihre Produktion sein

publish-industry Verlag GmbH

Bild: iStock, baona
30.04.2018

In der IT und Telekommunikation geht kaum noch etwas ohne Cloud und Big Data. Auch die produzierende Industrie soll damit in eine neue Ära gehievt werden. Doch die Cloud und Unmengen an Daten sind nicht die Lösung, sondern nur ein optionales Hilfsmittel. Eine intelligente Datenanalyse am richtigen Ort ist entscheidend.

Sponsored Content

Hören wir nicht seit Jahren von den Vorteilen der Cloud: standortunabhängiger Zugriff auf alle Produktionsdaten, skalierbare Computing-Leistung je nach Anforderung, keine eigene Serverinfrastruktur notwendig und hohe Security. Das ist schon alles richtig, auch wenn gerade das Thema Security und Daten außer Haus geben für viele Unternehmen nach wie vor Hinderungsgründe für die Nutzung von Cloud-Services sind.

Die Verbreitung und der Nutzen der Cloud werden weiter steigen, allerdings greift zunehmend erst das sogenannte Fog-Computing ein und übernimmt bisherige Cloud-Aufgaben. Im Gegensatz zur weit entfernten „Wolke“ ist der „Nebel“ direkt vor Ort oder bodennah. Fog-Computing heißt somit nichts anderes, als dass direkt am Sensor, an der Maschine, im lokalen Produktionsnetzwerk eine Datenvorverarbeitung und -analyse erfolgt. Nebulös wie das Wort fällt in diesem Zusammenhang auch schnell der Begriff Edge-Computing. Damit ist aber im Prinzip auch nichts anderes gemeint, als Daten an der Netzwerkperipherie zu verarbeiten, anstatt zentralisiert im Rechenzentrum oder der Cloud – also beispielsweise an IPCs, Gateways oder einer SPS.

Die Vorteile von Fog- oder Edge-Computing sind klar: Datenverarbeitung in „Echtzeit“ ohne Latenzzeiten wie in der Cloud, was gerade bei der Steuerung von Maschinen und aus Safety-Sicht essentiell wichtig sein kann. Außerdem bleiben sensible Daten innerhalb der Produktion, nur gefilterte und vorselektierte Daten werden bei Bedarf in die Cloud weitergeleitet und verlassen die Unternehmensgrenzen.

Kombination aus Cloud & Fog

So greift immer mehr die Einsicht, das Cloud nicht das Allheilmittel ist. Die anfangs genannten Vorteile sind nach wie vor unbestritten, doch die Grundlage müssen bereits vorverarbeitete und selektierte Produktionsdaten sein. Würden die abertausenden von Sensor- und Maschinendaten ungefiltert in die Cloud übertragen und dort erst analysiert werden, dann sind durch die schiere Datenmenge nicht nur die Netzwerke hoffnungslos überlastet, auch die Kosten für Bandbreite und Compute-Power in der Cloud schnellen in die Höhe – denn viele Dienste berechnen nach Volumen. Daten direkt an der Maschine, im eigenen lokalen Produktionsnetzwerk vorverarbeiten, Anomalien und Änderungen erkennen und nur diese in die Cloud übertragen – das macht auf Dauer Sinn. Und wer keinen Zugriff von überall oder standortübergreifend benötigt, der kann auch ganz auf die Cloud verzichten und setzt auf eine Embedded Cloud, um ein neues Schlagwort zu gebrauchen. Künftig wird sich eine Kombination aus Fog- und Cloud-Computing etablieren. Nur so lässt sich auch die immense Datenflut vernetzter Produktionen in den Griff bekommen.

PLM in der Cloud

Geht es um Cloud-Services für die Industrie, so ist oft nur von der Visualisierung der Warenflüsse, Auslastung von Maschinen und Produktionsstandorten oder Predictive Maintenance die Rede. Doch gerade Kollaborationslösungen für eine einfachere Zusammenarbeit in Konstruktion, Produktion, Supply Chain und Dokumentation bringen über die Cloud einen großen Nutzen. Deshalb finden PLM-Systeme (Product Lifecycle Management) in der Cloud deutlichen Zulauf bei den Industrieunternehmen.

Laut der von Dassault Systems in Auftrag gegebenen Studie „Die nächste Stufe der digitalen Transformation in Deutschland: Mit Cloud-PLM zu mehr Produktinnovation und Effizienz“ des Marktforschungsunternehmens IDC vom Oktober 2017 beziehen 56 Prozent der befragten Unternehmen aus dem verarbeitenden Gewerbe einen Teil ihrer PLM-Dienste aus der Cloud. Demnach sind die Cloud-Bedenken vieler Industriebetriebe gesunken, auch wenn die lange anhaltende Zurückhaltung dafür gesorgt hat, dass deutsche Unternehmen gegenüber den USA bei der Cloud-PLM-Nutzung etwa 18 bis 24 Monate hinterher sind. Wie die Studie ebenfalls ergab, werden deutsche Unternehmen in den kommenden Jahren primär einen hybriden Ansatz aus Cloud- und On-Premise-Diensten bei PLM-Systemen fahren. Laut IDC halten es dabei 83 Prozent der Befragten für wichtig, dass sich die in einer Cloud gespeicherten PLM-Daten in Deutschland befinden.

Reifegrad Industrie 4.0 gestiegen

Durch den verbesserten Informationsaustausch, sowohl firmenintern als auch mit dem Ökosystem aus Partnern, Lieferanten und Kunden, über PLM-Systeme ist auch der Industrie-4.0-Reifegrad der deutschen Unternehmen gestiegen: Bei einer IDC-Studie aus dem Jahr 2016 gab noch jedes sechste befragte Unternehmen an, Industrie-4.0-Initiativen umzusetzen. In der aktuellen Studie führt bereits jeder zweite Industriebetrieb Projekte durch. Dabei geht es immer um Klassiker von Industrie 4.0, wie eine stärkere Vernetzung des Shop Floor, ein durchgängig gestalteter digitaler Wertschöpfungsprozess oder neue Geschäftsmodelle und Industrie-4.0-Produktentwicklungen. Trotzdem berichten 90 Prozent der Befragten, dass noch zu viel Zeit für die Abstimmung zwischen Abteilungen und Prozessschritten benötigt wird. PLM aus der Cloud könne der Studie zufolge als Innovationsbeschleuniger für die digitale Transformation im Unternehmen wirken.

Cloud-Security geringstes Problem

Dennoch herrscht gegenüber der Cloud noch immer ein Misstrauen in den Köpfen vieler Verantwortlicher. Dabei betreiben die Cloud-Anbieter einen immensen Aufwand für die Sicherheit der Daten, die in deutschen und europäischen Rechenzentren gespeichert werden. Von diesen Security-Maßnahmen können die meisten Fertigungsbetriebe nur träumen. Es schadet also nicht, die eigene Skepsis gegenüber Cloud-Lösungen zu hinterfragen.

Sieht man sich auch die VDMA-Studie zum Status quo der Industrial Security vom November 2017 an, so sehen die befragten Mitgliedsunternehmen als zentrale Bedrohung menschliches Fehlverhalten und Sabotage, gefolgt von Einschleusen von Schadsoftware. Die Gefahr durch mit dem Internet verbundene Steuerungskomponenten oder die Kompromittierung über das Extranet und Cloud-Komponenten stuften die Befragten dagegen vergleichsweise gering ein.

Dass die Anzahl der Security-Vorfälle in Zukunft zurückgeht, ist für die Mehrheit der Studienteilnehmer dagegen unwahrscheinlich. Mehr als 90 Prozent der Befragten erwarten ein gleichbleibendes oder sogar ansteigendes Niveau. Mit der wachsenden Anzahl von Vorfällen gehen negative Auswirkungen einher, die die Maschinen- und Anlagenbauer bereits heute in mehr als zwei Dritteln aller Fälle verzeichnen.

Datenanalyse mit KI

Die Produktion, komplett gesteuert von Künstlicher Intelligenz (KI), diese Zukunftsvision ist gar nicht soweit hergeholt. Rein technisch geht das jetzt schon, schlaue Algorithmen werten die Flut an Daten aus der Produktion aus und sorgen für eine optimale Auslastung. Wartungsfenster werden optimal mit dem Auftragseingang abgeglichen, außerdem weiß die KI durch Predictive Maintenance eh schon, wann was ausfallen wird und organisiert zum idealen Zeitpunkt das Servicepersonal – selbstverständlich sind die notwendigen Ersatzteile dann schon vom System bestellt.

Bis sich die Künstliche Intelligenz allerdings als bewährtes Mittel für die komplette Produktionsoptimierung und Unterstützung für Geschäftsentscheidungen flächendeckend durchsetzen wird, vergehen bestimmt noch einige Jahre. Allerdings nutzt das Gros der kleinen und mittelständischen Firmen die KI schon sehr punktuell. Beispielsweise sorgt die Technologie bei der computergestützten Bilderkennung für eine zunehmend höhere Trefferrate. Laut der Studie „Smartening up with Artificial Intelligence (AI) – What’s in it for Germany and its Industrial Sector?“ von McKinsey kann die Qualitätsüberwachung durch KI über automatische visuelle Fehlererkennung bei Produkten um 50 Prozent produktiver werden. In bestimmten Bereichen ist eine Reduktion des Ausschusses um bis zu 30 Prozent möglich.

Doch was bedeutet eigentlich Datenanalyse auf Basis Künstlicher Intelligenz? Im Prinzip handelt es sich hier um selbstlernende Algorithmen, die Daten interpretieren und darauf basierend Entscheidungen treffen - oder in abgemilderter Form Handlungsempfehlungen geben. Dieses sogenannte neuronale Netz besitzt keine feste Programmierung, vergleichbar mit den Nervenzellen im Gehirn. Je mehr Daten zur Verfügung stehen, desto besser und präziser werden alle nachfolgenden Entscheidungen und Auswertungen.

Dieser Artikel ist Teil des Fokusthemas „Cloud Computing & Datenanalyse" aus der A&D-Ausgabe 5-2018.

Verwandte Artikel