Bild: Mujdatuzel, iStock

Big Data Daten verarbeiten mit Struktur

14.07.2016

Bei der Umsetzung von Industrie 4.0 entsteht eine immer größere Menge an Value Data. Nun entdecken Industrieunternehmen zunehmend das Potenzial dieser Daten für sich und ihre Produktion. Die angefallenen Datenberge optimal zu nutzen ist jedoch keine leichte Aufgabe. In-Memory-basierte Datenanalyse hilft dabei.

Intelligente, untereinander und mit dem Internet verbundene Geräte und Maschinen generieren riesige Datenmengen, deren Analyse Grundlagen für fundierte Entscheidungen in vielen Unternehmensbereichen bietet. Unterschiedliche Firmen haben das Potenzial des „Rohstoffs“ Daten offenbar bereits erkannt, denn das Investitionsvolumen im Bereich Big Data soll in den nächsten zwei Jahren größer werden: Eine Studie des Beratungsunternehmens Gartner sagt voraus, dass 75 Prozent aller befragten Unternehmen in Big Data investieren oder entsprechende Investitionen planen. Welche Potenziale der Einsatz von Analysesoftware im Produktionsumfeld bieten kann, zeigt das Beispiel der Semikron Elektronik.

Der Hersteller von Komponenten und Systemen der Leistungselektronik etablierte frühzeitig eine flexible Datenbank-Managementlösung für sein Spezialgebiet Messdatenarchivierung. Vor der Einführung wurden die Messergebnisse in auftragsspezifischen Dateien auf einen Fileserver kopiert und mit einem einfachen Index, bestehend aus Auftragsnummer, Anlage und Datum, in einer SQL-Tabelle versehen. Dies war nötig, um vertragliche Vereinbarungen zur Aufbewahrung dieser Daten zu erfüllen. Für das monatliche Berichtswesen kopierten Mitarbeiter relevante Qualitätskennzahlen manuell in Excel und stellten sie zusammen, um anschließend Diagramme für den Vormonat zu generieren. Der Zeitaufwand betrug je nach Bedarf nicht weniger als fünf bis zehn Wochen. Echtzeitauswertungen der Produktion waren aufgrund des hohen manuellen Aufwands ebenso undenkbar wie ein Zuordnen der einzelnen Messergebnisse aus vorgehenden oder nachfolgenden Prozessen der internationalen Wertschöpfungskette.

Um diese Situation zu verbessern, stieß Semikron ein Projekt mit drei Zielsetzungen an: Zum einen sollten alle relevanten Produktkennzahlen im Rahmen der vorgeschriebenen Aufbewahrungsfristen archiviert werden. Darüber hinaus galt es, alle archivierten Daten auf Basis von Auftrags- und Artikelnummer über das Internet intern bereitzustellen. Und auch die Materialbewegungs- und Lieferinformationen zur lückenlosen Rückverfolgbarkeit der Produktionskette sollten bereitgestellt werden.

Skalierbar, schnell, leicht zu integrieren

Die IT-Verantwortlichen bei Semikron benötigten eine frei skalierbare Datenbank, die mehrschichtige Ad-hoc-Analysen ermöglicht und Anwendern einen schnellen Zugriff auf alle Messdaten garantiert. Da in den einzelnen Fachbereichen des Unternehmens jeweils individuelle Anforderungen an die Datenanalysen gelten, musste dies ebenso entsprechend abzubilden sein. Ziel war, die Daten in eine relationale Datenbank einzugeben und daraus – je nach Bedarf – verschiedene Export-Formate wie qs-STAT (Q-DAS), MiniTab und CSV
bereitzustellen.

Im Fokus standen vor allem Boxplot-Diagramme sowie Cpk-Berechnungen zur Analyse der Prozessfähigkeit. Kennzahlen beinhalteten den Mittelwert, die Standardabweichung, Cpk/Tpk und diverse Percentile zur Darstellung von Boxplots mit Excel-Kursdiagrammen. Für die geplante Online-Recherche der Messdaten wurde darüber hinaus ein relationales Datenmodell benötigt, das Daten entpacken und gleichzeitig standardisieren konnte. Weitere Voraussetzungen waren die Verhältnismäßigkeit der Total Cost of Ownership (TCO) und eine einfache Integration des Systems in die vorhandene Infrastruktur.

Semikron verglich im Jahr 2008 verschiedene Lösungen – es zeigte sich allerdings, dass marktübliche Systeme wie beispielsweise MES die Daten nicht im erforderlichen Umfang online vorhalten konnten. Einen Lösungsansatz bot schließlich das Nürnberger Unternehmen Exasol mit einem Proof-of-Concept ihrer auf In-Memory-Technologie basierenden Hochleistungsdatenbank. Das Team spielte dabei Testdaten von je einer Anlage jedes Fertigungsbereiches in Deutschland in ein vollständig modelliertes Datenmodell ein. Anschließend analysierte es die Abfragezeiten mit unterschiedlichen Datenvolumina und Cluster-Konfigurationen. Der Test wies schnell eine deutliche Optimierung des Arbeitsablaufs auf.

Von einer Woche zu einer Minute

Eine Herausforderung an das Berichtswesen war beispielsweise, für bestimmte Produktgruppen und ausgewählte Merkmale einen Boxplot zur Ermittlung der Wertverteilung aller Aufträge für einen bestimmten Zeitraum zu erstellen. Für eine einzige Produktgruppe wandte das Team bei Semikron ursprünglich eine Woche pro Berichtsmonat auf. Während der Testphase konnte diese Auswertung auf eine Stunde reduziert werden – später, im realen Anwendungsszenario, auf eine Minute pro Monat.

Fertigt das Unternehmen Leistungshalbleitermodule und -systeme am Standort Slowakei, so sorgen zunächst spezielle Eingabe-Plugins dafür, dass die ankommenden heterogenen Mess- und Prozessdaten vereinheitlicht und auf einem internationalen Server abgelegt werden. In einem zweiten Schritt findet der Transfer dieser standardisierten Daten vom internationalen Server auf einen zentralen Server in Deutschland statt. Im dritten Schritt werden die Daten entpackt und an die In-Memory-Datenbank weitergegeben. Dort stehen sie jederzeit für analytische Abfragen und Reports bereit. Das System besteht aus 3+1 Einzelrechnern (Knoten), die zu einem Cluster zusammengeschlossen sind. Die Verteilung der Daten im Cluster erfolgt automatisch, sodass bei Berechnungen sämtliche Hardware-Ressourcen optimal genutzt und alle Informationen während des Prozesses in Spalten und nicht in Zeilen gespeichert werden. Das Datenbanksystem ermittelt zudem selbständig, wie die ideale Systemkonfiguration aussieht. Dem Administrator bleiben damit die Analyse der Abfragen sowie die manuelle Erstellung der dafür benötigten Indizes erspart. Im Regelbetrieb liegt der Zeitaufwand des Datenbankmanagements bei null.

Ein weiterer Vorteil der In-Memory-Lösung bestand in den sehr kurzen Abfrage-Laufzeiten: Die durchschnittliche tägliche Abfrage-Laufzeit lag nach Projektbeginn nie über sechs Sekunden. 75 Prozent aller Abfragen waren in unter drei Sekunden fertig. Semikron verfügt nun über eine vielschichtige Ad-hoc-Analysebasis und Zugriffsmöglichkeiten auf Messdaten: Statt einer vormals mehrere Wochen langen Datenermittlung liefert das System eine Stunde nach Testende auswertbare Daten.

Dies hat zu unterschiedlichen Optimierungen von Prozessen und Arbeitsabläufen geführt: So hat das Unternehmen in der Modulfertigung über die Einführung eines Plasmareinigers vor der Verarbeitung des Rohmaterials signifikante Qualitätsverbesserungen erzielt. Außerdem konnte schnell ermittelt werden, welches Rohmaterial für ein bestimmtes Fertigungslos verwendet und in welchem Kundenprodukt weiterverarbeitet sowie verkauft wurde. Entsprechend lassen sich seither bestimmte kritische Prozessparameter wie beispielsweise Sperrspannung vom Chip über das fertige Modul/System bis zum Endkunden nachverfolgen.

Durch die neue Ebene der Datenanalyse konnte das Projektteam ein einheitliches Mess- und Prozessdatenarchiv über alle Standorte hinweg zu etablieren. Produktions- und Qualitätskennzahlen der verkauften Leistungshalbleiterkomponenten lassen sich innerhalb der vorgeschriebenen Aufbewahrungsfristen vollständig zurückverfolgen.

Reports auf Knopfdruck

Zudem können die einzelnen Fachbereiche präventive Analysen (Statistical Process Control) auf Basis gewonnener Messdaten jederzeit ad hoc und ohne Informationsverlust durchführen. Prozess- und Qualitätsingenieure in der Fertigung sind nun unabhängig von anderen Abteilungen und können ihre Standard- oder Ad-hoc-Reports auf Knopfdruck erstellen. Darüber hinaus sind Produktionsnachweise zu einem einzelnen Bauteil jederzeit abrufbar.

Semikron konnte durch den Einsatz von Datenanalysen die operative Effizienz optimieren. Die Zukunft steht beim Unternehmen im Zeichen des Ausbaus: Im Rahmen eines Pilotprojektes stellt der Hersteller gerade beim Sammeln der eingehenden Daten seine Prozesse so um, dass eine Realtime-Versorgung und damit auch Realtime-Analysen möglich werden. Auch der Anschluss weiterer Anlagen sowie neuer Standorte ist langfristig geplant.

Bildergalerie

  • Das Nürnberger Unternehmen Exasol analysiert Big Data mit seiner auf In-Memory-Technologie basierenden Hochleistungsdatenbank.

    Bild: Exasol

  • Semikron, Hersteller von Komponenten und Systemen der Leistungselektronik, etablierte eine flexible Datenbank-Managementlösung für die Messdatenarchivierung.

    Bild: Semikron

  • Die In-Memory-Lösung hat in der Fertigung die Prozesse und Arbeitsabläufe optimiert, zum Beispiel dank sehr kurzer Abfrage-Laufzeiten.

    Bild: Semikron

Firmen zu diesem Artikel
Verwandte Artikel