So geht perfektes Timing: Pünktlich zum Start des Referats „DWII2 – Künstliche Intelligenz“ im neuen Bundesministerium für Digitales und Staatsmodernisierung (BMDS) richtete Spectaris die Konferenz „KI in der Photonik – Mehr Wertschöpfung in Laserfertigungstechnik & Optikdesign“ aus. Für Referatsleiterin Evelyn Graß markierte dieser 1. Oktober also einen doppelten Aufbruch. „Wir wollen eine KI-Nation werden!“, zitierte sie den Koalitionsvertrag. KI werde Vieles umwälzen und die Karten für die Wettbewerbsfähigkeit von Unternehmen und Staaten neu mischen. Daher müsse KI Chefsache werden. Die Ausgangslage sieht Graß positiv: „Wir haben hochwertige Daten aus unseren industriellen Prozessen, deren Wert es zu erkennen und zu nutzen gilt“. Sie freue sich, dass die Photonik diese Aufgabe entschlossen angeht.
Erst kommt die Datenstrategie – dann die KI
Die Konferenz zeigte dann, wie komplex und multidimensional die Herausforderung ist, Daten für KI-Anwendungen nutzbar zu machen. Am Anfang muss laut Stephan Kiene, Leiter des Azure-Geschäfts für öffentliche Auftraggeber bei Microsoft Deutschland, eine Datenstrategie stehen. Noch seien Datensilos verbreitet, die Daten darin unzugänglich und kaum kombinierbar. Er warb für zentrale Datenplattformen, auf denen Fertigungs- und Sensordaten mit Daten des Lifecycle-Managements oder der Manufacturing Execution zusammenlaufen. Zudem brauche es genug Rechenleistung für Simulationen, Digitale Zwillinge und rechenintensiv KI-Prozesse.
Das übergeordnete Ziel: engmaschige möglichst 360-Grad-Qualitätsüberwachung. Viele Referenten schilderten den Bedarf. So auch Martin Stambke, Trumpf-Produktmanager für Sensorik. Während eine Autotür 70 Schweißnähte habe, seien es bei Batterien und Brennstoffzellenstacks hunderte. Nicht eine davon dürfe fehlerhaft sein. Und während ein Produktionsfehler bei Autotüren mit unter 100 Euro zu Buche schlage, habe eine Batterie zum Zeitpunkt der Schweißprozesse schon mehrere 1.000 Euro Wert. Dr. Jan-Phillip Weberpals, AUDI-Experte für Laserstrahlprozesse, Sensorik und Machine Learning, und Konstantin Ribalko, Key Account Manager bei Precitec, schilderten Ähnliches: „Bei der Zellkontaktierung für Batteriemodule darf trotz einer hohen Bandbreite an Materialdicken und Einschweißtiefen nicht eine der vielen hundert Schweißnähte pro Bauteil schadhaft sein“.
Kosten und Datenvolumina in den Griff bekommen
Es braucht tiefes Prozessverständnis und systematische Qualitätskontrolle, um Ausschuss zu minimieren. Emissionsbasierte Sensoriken, 3D-Bildgebung per Triangulation, Kamera- und OCT-Systeme oder auch Computertomographien (CTs) in und abseits der Fertigungslinien überwachen die Schweißprozesse. Die Prozessüberwachung generiert Unmengen an Daten und hohe Kosten. Beides ist problematisch; dies erst recht in regulierten Branchen, wie Christoph Hauck, Technologie- und Vertriebsvorstand von Toolcraft berichtete. Er formulierte konkrete Wünsche an KI: Diese sollen ideale Parameterkonfiguration für eine vorausschauende Prozessplanung ermitteln, um Fehlern vorzubeugen.
„Auch Echtzeit-Fehlererkennung im Prozess, die den Bedarf an teuren CTs minimiert, würde der Industrie sehr helfen“, erklärte er. Für additive Prozesse wünscht er sich eine automatische Parameteranpassung an neue Pulver-Chargen, Geometrien und Maschinenvarianten, adaptive Echtzeitregelungen sowie eine First-time-Right-Production, um auch bei Losgröße 1 auf Anhieb alle Qualitätsanforderungen erfüllen zu können. Und um in Pulverbettverfahren lastoptimierte Designs umsetzen zu können, seien Prozessstrategien wünschenswert, die nur entlang der Lastpfade perfekte Gefüge schaffen und ansonsten im Speed-Modus arbeiten, um AM-Bauteile schneller und günstiger zu produzieren.
Die Beispiele zeigen: Anwendungen werden komplexer, Bauteile wertiger und die Vielfalt an Verfahren, in denen KI datenbasiert die Prozesse verbessern soll, nimmt zu. Zugleich ist in industriellen Anwendungen Rückverfolgbarkeit gefragt. Nicht nur Hauck ließ durchblicken, wie unbefriedigend der Status-quo ist: die Unternehmen generieren große Datenmengen, die aber zu oft in Datensilos landen. Werden sie genutzt, ist der Erkenntnisgewinn oft gering. Kausalitäten bleiben unklar. Fehlerbewertungen erfolgen manuell und subjektiv. Der Aufwand der Prüfung und Prozessqualifizierung läuft aus dem Ruder. In dieser Problemlage kommt KI wie gerufen.
Datenstrategie und Cloudplattformen
Doch es zog sich durch alle Vorträge, dass die Adaption an die jeweiligen Prozesse eine herausfordernde, interdisziplinäre Aufgabe ist, die Sorgfalt und strategische Klarheit voraussetzt. Das beginnt mit der IT- Infrastruktur. Eigene Rechenzentren und Speicherhardware sind für Unternehmen kaum rentabel und praktikabel. Cloudbasiertes High-Performance-Computing und cloudbasierte Datenplattformen machen Prozess-, Sensor-, Maschinen- und Prüfdaten nutzbar zu machen, wo sie gerade gebraucht werden – in cloudbasierten Simulationen oder auf produktionsnahen Edge-Computern. Das Nebeneinander zentraler und dezentraler Infrastruktur sowie heterogene Datenformate gilt es strategisch zu managen, damit in Rohdaten schlummernde Mehrwerte nutzbar werden. KI-Tools helfen, die Rohdaten zu harmonisieren. „Je mehr generierte Daten tatsächlich für KI- und Maschine-Learning-Modelle nutzbar sind, desto besser und realitätsnäher werden sie. Es ist ein selbstverstärkender Prozess, in dem die Datenplattform zum zentralen Innovationstreiber im Unternehmen wird“, sagte Kiene. Doch dieser Prozess zündet nicht in Datensilos.
Die Photonik ist ein Fall für sich. Heterogene Verfahren, ausbaufähige Datenverfügbarkeit und das auf Spezialisten begrenzte Prozessverständnis stellen eigene Anforderungen. Thomas Koschke von der BCT Steuerungs- und DV-Systeme und Max Zimmermann vom Fraunhofer ILT beschrieben sie anschaulich. Um KI für die Parametrierung und Kontrolle robotisch unterstützter Laser-Metal-Deposition-(LMD)-Prozesse zu trainieren, mussten sie die Datengrundlage selbst schaffen. „Für gute LMD-Ergebnisse muss man viele, oft wechselwirkender Parameter einstellen. Passen etwa Vorschub und Laserleistung nicht zusammen, wird droht Überhitzung oder das Pulver schmilzt nicht richtig. Beides wirkt sich auf die Qualität aus“, erklärte es Koschke an zwei der vielen Parameter. Für eine optimale Parametrierung alle Varianten zu testen, ist nicht praktikabel. KI sollte deshalb die Prozess-Einrichtung unterstützen – und dann auch gleich die Inline-Prozessüberwachung.
Wenn es ins Detail geht, zählt der exakte Zeitstempel
Der Weg zur mittlerweile erreichten Serienreife war jedoch steinig. Beim Generieren der Daten, mit denen die KI die Fehlererkennung und Prozesskontrolle lernen sollte, steckte der Teufel im Detail. Zwar ordnete BCT-Software Bilder, Messwerte der Temperatur, Laserleistung, Spannung und weitere Sensordaten der Topologie des Bauteils zu, um Daten visualisieren zu können. Doch schon beim Aufbereiten der Daten in einheitliche Formate, Maßstäbe und Skalen fiel auf, dass es Probleme gab. Zeitstempel stimmten nicht. Eine verstellte Düse verfälschte die Daten und es gab weitere Unstimmigkeiten. „Es kommt schon bei der Datenerhebung aufs Detail an“, mahnte Koschke. „Mit schlechten sind kaum gute Vorhersageergebnisse zu erwarten“, ergänzte Zimmermann.
Es gab ein weiteres Problem: Auffälligkeiten waren teils nicht auf Prozessfehler, sondern auf fehlerhafte Sensorkonfigurationen zurückzuführen. „Ehe der Aufbau des Datenmodells mit In-Situ- und Ex-Situ-Daten aus metallographischen Analysen und CTs beginnt, müssen alle Unstimmigkeiten geklärt sein“, erklärte Zimmermann. Doch sind alle Daten zeitlich und räumlich exakt zugeordnet, leitet die KI Hervorragendes. Weil auch das Labeln aufwändig ist, haben die Partner dafür KI- und Prozessexperten zusammenarbeiten lassen. Letztere haben zunächst einige Bilder gelabelt. Damit antrainierte KI hat dann ganze Datensätze bewertet, was die Prozessexperten bei Bedarf korrigiert haben. Im Human-in-the-Loop-Ansatz schuf das Team die nötige Datenbasis, um die KI bis zum Serieneinsatz weiterzuentwickeln.
Auf das Timing kommt es an
Frühzeitige Optimierung ist wichtig, um dann die Komplexität der Datenmodelle steigern zu können. Die präzisen Zeitstempel und exakten Koordinaten auftretender Varianzen sind die Basis, damit das KI-Modell die Wechselwirkung zwischen Laserleistung, Schmelzbad, sowie den physikalischen und mathematischen Größen im Prozess vorhersagen kann – und umgekehrt aus Schmelzbadaufnahmen auf die Laserleistung schließen zu können. So lernt sie zu ermitteln, welche Laserleistung erforderlich ist, um das Schmelzbad konstant zu halten. Das Resultat: homogenere Strukturen im LMD-Prozess zu. „Mit den datenbasierten Vorhersagen bauen wir sauberer auf, kommen den Ziel-Geometrien näher und haben stabilere Prozesse – ganz ohne Regeleingriffe“, berichtete Zimmermann. Das sei wichtig, da jeder Regeleingriff den Prozess beeinflusse und die Stabilität beeinträchtige.
Auch Stambke berichtete von KI-Serieneinsätzen. Trumpf setzt dabei auf nutzerzentrierte Lösungen, um Beschäftigten in einer Fertigung, die bislang nichts mit KI zu tun haben, deren Potenzial nahezubringen und durch Mehrwerte zu überzeugen. Herkömmliche Bildverarbeitung und deren Algorithmen stoßen in der photonischen Fertigung oft an Grenzen. Dies auch, wenn Laser in Elektromotoren Hairpins verbinden. Deren Kupferoberflächen reflektieren einfallendes Licht sehr stark. Variierende Teilequalität erschweren das Imaging auf Basis konventioneller Grauwert-Algorithmen zusätzlich. Zum Ausrichten der nur 50 - 500 µm kleinen Laserspots braucht die Steuerung der Optik dennoch präzise Lageinformationen der Hairpins.
Hier setzt Trumpf mit neuronalen Netzen an. Ein „KI-Filter“ trennt auf Basis semantischer Segmentierung das Bauteil vom Hintergrund: Er reduziert die Grauwertaufnahme auf ein binarisiertes Schwarzweiß-Bild, in dem der Grauwert-Algorithmus die Hairpins zuverlässig erkennt. „Wir schaffen Robustheit, indem wir die Bauteil und Hintergrund trennen und Störeinflüsse herausfiltern“, sagte Stambke. Die Ergebnisse bleiben transparent und Messwert überprüfbar, da vom etablierten Algorithmus ermittelte Koordinaten zugrunde liegen. Tests an 9.500 Hairpin-Paaren belegen die Robustheit: die Kombination von Grauwert-Algorithmus und KI-Filter sorgten für 99,8 Prozent First-Pass-Yield. Die fehlenden 0,2 Prozent waren auf tatsächlich fehlerhafte Paare zurückzuführen. Ausschussteile wurden also schon vor dem Schweißprozess erkannt.
KI zum Selbermachen
Bewusst bezieht Trumpf die Anwender ein. Nach ersten Projekten mit Pilotkunden war den Entwicklern aufgegangen, dass es suboptimal ist, wenn sie die Modelle nur mit Bildern der Kunden anlernen. „Warum? Weil unsere Kunden ihre Bauteile viel besser kennen als wir“, erklärte er. Daher biete man nun KI zum Selbermachen an. Trumpf baut ein Trainingssystem, das User in der Lage versetzt, ihr Modell anzulernen. Sie können beispielweise bei der Inbetriebnahme einer Produktionslinie programmieren, dass nach jedem Schweißvorgang automatisch ein Bild gespeichert wird. Die Bilder lassen sich in cloudbasierter Software zum Training des Modells nutzen. Die Nutzerführung ist einfach und Code-frei. Schon nach dem Training mit wenigen Bildern schlägt das System Label vor, die auch hier ein Human-in-the-Loop korrigieren kann. Die KI wird mit jeder Korrektur, jedem Bildersatz und jeder weiteren Klassifizierung genauer. Auch ist es möglich, Grenzwerte im Trainingsmodell, statt erst on-Edge an der Maschine zu definieren – praktikable Hands-on-KI also, anstelle abstrakter KI-Metriken.
Nun arbeitet Trumpf daran, solche Lösungen auch für komplexe Anwendungen und Multi-Sensorsysteme nutzbar zu machen; etwa beim Schweißen der Bipolarplatten in Brennstoffzellenstacks. Die Platten aus hochlegiertem Stahl zu verbinden ist wegen ihrer komplexen Geometrien, Materialspannungen und der folienähnlichen Stärke von nur 75 bis 100 µm eine herausfordernde Fügeaufgabe. Es gilt, mehrere Meter absolut dichter Naht pro Platte bei mehreren hundert Stück pro Stack zu applizieren. „Ist nur eine einzige Verbindung undicht, ist der ganze Stack unbrauchbar“, erklärte Stambke.
Die erforderliche 100-Prozent-Prüfung dauere zwei bis drei Minuten. In einer Serienfertigung ist das nicht praktikabel. Deshalb treibt Trumpf eine KI-gestützte, multisensorische Prozesskontrolle voran. Hierfür müssen viele Sensorsignale zu einer kohärenten Qualitätsaussage fusioniert werden. Die Kombination einer hochfrequenten Kurzwellen-IR-Kamera und einem Mikrofon in Verbindung mit KI zeigt in Versuchen bereits, dass sie undichte Nähte sehr gut detektiert. Bipolarplatten, die das System für dicht befand, waren dicht. Fehlalarme bewegen sich auf dem Niveau bislang eingesetzter, deutlich aufwändigerer Messmethoden. Es könnte also sein, dass KI und Photonik bald auch einen Produktivitätsschub in der Brennstoffzellenproduktion auslösen.
Datengetriebene Entwicklungen in der Photonik
Prof. Carlo Holly, Leiter des RWTH-Lehrstuhls für Technologie optischer Systeme und Abteilungsleiter Data Science und Messtechnik am Fraunhofer ILT, blickte in seinem Vortrag weiter in die Zukunft. Seine Gruppe „Computational Optics“ legt den Fokus auf optische neuronale Netze und auf automatisiertes Optikdesign. „Am Fraunhofer ILT haben wir datengetriebene Innovation fest etabliert“, berichtete Holly. So sei es in LMD-Prozessen gängige Praxis, digitale Zwillinge einzusetzen oder zum Lösen inverser Probleme in der UKP-Materialbearbeitung mit Prozesssimulationen zu arbeiten. Der Trend gehe in Richtung selbstlernender Lösungen sowie zum Einsatz neuronaler Netze in der Qualitätssicherung. Holly treibt dabei die Frage um, inwieweit auch das Optikdesign mit KI-Methoden automatisierbar ist, um Laserstrahlung schnell, effizient und kostengünstig an Fertigungsprozesse adaptieren zu können.
Der Experte skizzierte den Weg vom reinen Data Informed Machine Learning hin zu einem Data & Physics Informed Machine Learning. „Reine Sprachmodelle, die physikalische Inhalte nur aus der Sprache extrahieren – also nur mitlernen, greifen in der Photonik oft zu kurz“, konstatierte er, „weil wir doch häufig schon explizites Wissen über die Physik der Prozesse haben“. Das zu ignorieren und bei Null zu starten, sei ein Umweg. Stattdessen plädiert er für direkte Interaktion der Modelle mit der realen physischen Welt. Denn darin sei der Weg zu autonomen, selbstlernenden Laseranlagen für die Materialverarbeitung methodisch vorgezeichnet.
Dieser habe vier Stufen: Design und Modellierung unter Verwendung von multiphysikalischen Modellen, Raytracing sowie CAD-Tools, die immer öfter etwa im Optik-Design oder der Bauteil-Auslegung durch KI unterstützt oder optimiert werden. Die zweite Stufe umfasse Prozessmonitoring und Quality Inspection. Die Inline-Beobachtung liefere bisher aber nur rückblickend Fehlermeldungen und physikalische Abweichungen. Wünschenswert seien aber Vorhersagen. Stufe drei seien daher Prognosen auf Basis immer tieferen Verständnisses der Fehlerursachen. „Dort angelangt liegt der vierte Schritt – der aktive, korrigierende Eingriff in den Prozess nahe“, sagte er. Die Data Science gebe der Photonik sehr mächtige Werkzeuge an die Hand, die auf sehr viele photonische Prozesse anwendbar seien, bilanzierte Holly. Die Zukunft einer KI-unterstützten photonischen Fertigung – sie hat längst begonnen!