Aktuelle Nachrichten aus der Fertigungsautomation 2x wöchentlich kostenfrei in Ihrem Postfach.
Sie haben sich bereits unter der angegebenen E-Mail Adresse registriert.
Bei der Registrierung ist ein Fehler aufgetreten.
Sie müssen die AGBs bestätigen.
Registrierung erfolgreich.
Jens Kamionka, Head of Big Data and Data Analytics bei T-Systems Multimedia Solutions

Jens Kamionka, Head of Big Data and Data Analytics bei T-Systems Multimedia Solutions

Bild: T-Systems Multimedia Solutions
3 Bewertungen

Datenanalyse in der Industrie „Dort ansetzen, wo die Kosten lauern“

17.02.2017

Welche Rolle Predictive Analytics für die produzierende Industrie spielt, erklärt Jens Kamionka, Head of Big Data and Data Analytics bei T-Systems Multimedia Solutions. Mehr dazu erfahren Sie auch in einem kostenfreien Webinar. Informationen dazu finden Sie am Ende des Interviews.

Sponsored Content
  • Grenzen überwinden

    Ein standardisiertes Kommunikationsprotokoll, über das sich alle Elemente einer Automatisierungslösung verständigen ...

Herr Kamionka, Big Data und vor allem Predictive Analytics sind in vielen Unternehmen bereits gesetzt. Wie ist der Stand in der deutschen Industrie?

Jens Kamionka: Hier sehe ich unterschiedliche Reifegrade. Wenn man die Branchen in die drei Segmente Service, Produktion und Logistik unterteilt, dann lässt sich festhalten, dass die Logistik einen deutlichen Vorsprung hat. Ein hoher Kostendruck und viel Wettbewerb haben dazu geführt, dass diese Unternehmen weit vorn sind. Bereits seit den 1990er-Jahren setzt man beispielsweise auf SIM-Karten, die Betriebsdaten wie die Motorleistung etwa in die Zentrale funken. Keine Frage: Hier ist das Thema nicht neu.

Warum sind die anderen Teilsegmente noch nicht so weit?

Salopp formuliert schießen einige Beteiligte noch zu oft ins Blaue. Blickt man auf die Zeitachse, dann setzten die Anwender zu Beginn der Datenanalyse auf die Vergangenheit: Wie war mein Umsatz?, ist so eine typische Fragestellung. Anschließend gab es die Phase der Diagnostik: Warum ist mein Umsatz eingebrochen? Die Königsdisziplin sind schließlich Predictive Analytics, mit denen man in die Zukunft schaut: Wie wird sich mein Umsatz im Jahr 2018 entwickeln? Bei der Ausgestaltung der entsprechenden Analyse stehen die Unternehmen indes oft erst am Anfang, das ist noch nicht konkret genug.

Woran liegt das?

Ganz eindeutig fehlen konkrete Anwendungsfälle. Meiner Ansicht nach existiert das Thema Predictive Analytics in der Industrie in genau vier Dimensionen: Image, Risiko, Kosten und Umsatz. Die Analyse soll belastbare Informationen geben, wie man die Kundensicht auf das Unternehmen positiv beeinflussen, den Umsatz steigern sowie Risiko und Kosten senken kann. Können Unternehmen keine greifbaren Anwendungsfälle auf Basis dieser Ebenen schaffen, nützen auch keine Predictive Analytics. Das kann man so scharf formulieren, das erleben wir in der Beratung jeden Tag aufs Neue.

Warum ist es so schwierig, für diese vier Größen nachvollziehbare Use-Cases zu konstruieren?

Die größten Herausforderungen identifizieren wir bei der grundsätzlichen Datenerhebung. Es gibt nur wenige Standards, so dass Datenerhebungskomponenten oft nur unternehmensindividuell vorhanden sind. Es wäre zudem von Vorteil, wenn wir beim Thema Schnittstellen weiter wären sowie bei der übergreifenden Echtzeit-Datenerhebung. Letztlich sitzen manche Marktteilnehmer schlicht auf ihren Daten und rücken sie nicht raus …

Wie bitte?

Ja. Beispielsweise gibt es Maschinenbauer, die ihre Produkte nicht mehr verkaufen, sondern verleasen. Und sie behalten sich dabei vor, die beim Betrieb entstehenden Daten exklusiv auszuwerten und diese Informationen ebenfalls als Service zum Verkauf anzubieten. Das ist aus ökonomischer Sicht verständlich, hilft uns in der übergreifenden Digitalisierung der Industrien aber nicht unbedingt weiter, da neue Silos entstehen.

Offensichtlich kommen manche Indus­trieunternehmen – selbst wenn sie es wollten – auch gar nicht erst an ihre Daten heran.

Leider stimmt das. Wir stellen immer wieder fest, dass historische Daten und auch Live-Daten vorhanden sind. Aber oft existieren die berüchtigten Datensilos, so dass die Informationen nicht den notwendigen Verknüpfungsgrad haben. Da braucht es häufig einen höheren internen Vernetzungsgrad bereits innerhalb der eigenen Fabrikmauern. Darüber hinaus wissen manche Organisationen nicht, wo überhaupt ihre Goldadern liegen. Daten gibt es zuhauf. Die Herausforderung ist jedoch, diejenigen Datentöpfe zu identifizieren, aus denen sich Prognosen überhaupt extrahieren lassen und deren Ergebnisse auch zu etwas führen. Prognostik zum Selbstzweck ist redundant. Und nicht nur das: Auch bei der Suche danach, sitzen einige Organisationen einem Trugschluss auf.

Und zwar welchem?

… dass die Implementierung von Predictive Analytics als Standard funktioniert. Dem ist aber leider nicht so. Es wird immer um individuelle Ansätze gehen. Die ganze Angelegenheit ist und bleibt eine unternehmensspezifische Sache, das ist die harte Realität.

Wenn dem so ist, dann helfen wir der Industrie doch einmal bei der Identifikation verheißungsvoller Datenquellen. Wo würden Sie ansetzen?

Ein Erfahrungswert ist: Dort ansetzen, wo die meisten Kosten entstehen. Hier erleben wir auch immer wieder Überraschungen. Wir berieten unlängst einen Kunden, dessen Prozesse bereits sehr optimiert waren. Durch Datenanalyse ließen sich jedoch Greifwege zwischen Regalen verbessern und um sechs Sekunden beschleunigen. Das klingt nicht überragend, doch Fachleute wissen, dass das je nach Branche sehr viel ausmachen kann. Und darum geht es letztlich: Es gilt, die einzelnen Prozesse im Unternehmen genau unter die Lupe zu nehmen und nicht die Gesamtheit. Derart lassen sich dann auch die entsprechenden Datenquellen einfacher identifizieren und auswerten.

Können Sie ein Beispiel nennen?

Ja, etwa in der Produktion. Nehmen wir mal an, ein Unternehmen möchte seine Produktionsplanung an der Kundennachfrage ausrichten, um sich so vor Überraschungen zu schützen. Eine Lösung kann beispielsweise sein, dass es nicht mehr nach grober Prognose, sondern nach möglich exaktem Bedarf produziert. Es gilt also, die Frage zu beantworten, welche Daten nötig sind, um den möglichst genauen Bedarf der Kunden vorhersagen zu können. Auf diese Weise lassen sich auch Trendprodukte analysieren. Damit man bereits heute weiß, was morgen gekauft wird.

Im Kern der Predictive Analytics stehen in der Industrie also weiterhin die gefertigten Produkte?

Klares Jein. Für manche Firmen mag das sein. Das genannte Beispiel zeigt jedoch, dass aus den Rohdaten durchaus auch verheißungsvolle Geschäftsmodelle entwickelt werden können. Oder schauen Sie sich Uber an. Ich will diese hinlänglich bekannte Erfolgsgeschichte als ein auf Daten basierendes Unternehmen nicht wiederholen. Entscheidend ist jedoch: Es befindet sich in einem fortlaufenden Evolutionsprozess. Das nun von Uber entwickelte Angebot, dass sich mehrere Fahrgäste eine Fahrt teilen, ist ein gutes Beispiel dafür.

Inwiefern?

Hier hat man den Prozess Taxifahrt zum Martkteintritt in einer optimierten Form angeboten. Jetzt – gewissermaßen als Uber 2.0 – optimiert das Unternehmen diesen weiter, indem die Nutzer pro Fahrt Geld sparen, weil sie sich die Kosten teilen. Man hat also auf der Basis einer Echtzeit-Datenanalyse – „Wer nutzt unser Angebot wann und wo? – den schon guten Bestands-Prozess weiter optimiert. Das ist ein Paradebeispiel, das sich auch in der Industrie anwenden lässt: Wie kann ich mit Predictive Analytics also einen überwiegend menschbasierten Prozess weiter verbessern – darum geht es.

Firmen zu diesem Artikel
Verwandte Artikel