Trotz spärlicher Datenlage Künstliche Intelligenz trifft Verfahrenstechnik

Die Chemieindustrie könnte dank einer interdisziplinären Zusammenarbeit demnächst trotz spärlicher Datenlage von Künstlicher Intelligenz profitieren.

Bild: iStock, Totojang
08.08.2022

Ein Teilgebiet der Künstlichen Intelligenz, das Deep Learning, soll künftig in der chemischen Industrie genutzt werden können. Bislang stand der Nutzung die spärliche Datenlage im Wege. Ein interdisziplinäres Team aus den Bereichen der Informatik und Verfahrenstechnik soll nun einen Ausweg bieten.

Die Deutsche Forschungsgemeinschaft (DFG) fördert die neue Forschungsgruppe „Deep Learning auf dünn besetzten chemischen Prozessdaten“ für vier Jahre mit rund 3,5 Millionen Euro. Koordiniert wird sie an der Technischen Universität Kaiserslautern (TUK). Die Gruppe arbeitet daran, Verfahren des Deep Learning, eines Teilgebiets der Künstlichen Intelligenz, für die chemische Industrie nutzbar zu machen. Das ist bislang nicht möglich, insbesondere aufgrund der spärlichen Datenlage. Das interdisziplinäre Team aus Informatik und Verfahrenstechnik entwickelt dazu neue Methoden. Diese sollen dabei helfen, Fehler in chemischen Prozessen frühzeitig aufzuspüren, um Unfälle und Abschaltungen abzuwenden.

Millionen Bilder innerhalb von Sekundenbruchteilen nach einem Schlagwort wie zum Beispiel „Strand“ durchsuchen oder die Spracherkennung nutzen, um sich ein Lied in seinem Streamingdienst vorspielen zu lassen. So etwas möglich macht Deep Learning – ein Teilbereich der Künstlichen Intelligenz. Mithilfe von riesigen Datenmengen lernen Algorithmen dazu; sie klassifizieren, sortieren und filtern Daten. Die Technologie kommt in vielen Bereichen zum Einsatz, etwa in der Medizin, der Landwirtschaft oder der Robotik.

Zu wenig Daten in der chemischen Industrie

Bei Prozessen der chemischen Industrie ist dies aber bislang nicht der Fall. „Es gibt hier viel weniger Daten als etwa bei einer Bildersuche im Netz, teilweise sind gar keine Daten vorhanden oder Unternehmen stellen sie nicht zur Verfügung“, sagt Professor Dr. Marius Kloft, der an der TU Kaiserslautern das Lehrgebiet Intelligente Systeme und die Arbeitsgruppe Maschinelles Lernen leitet sowie Sprecher der neuen DFG-Forschungsgruppe ist. „Zudem sehen häufig auch alle Daten gleich aus, was das Lernen hier deutlich erschwert.“ Beispielsweise wird in einer chemischen Anlage über einen langen Zeitraum hinweg immer derselbe Prozess bei denselben Bedingungen gefahren, wie die Umsetzung von Rohstoffen zu Produkten. Sensoren messen dann immer die gleiche Temperatur, den gleichen Druck und so weiter.

Genau in solchen Bereichen möchte die neue Forschungsgruppe dennoch Deep Learning Methoden zum Einsatz bringen. Dabei kommt der Gruppe zugute, dass sie interdisziplinär aufgestellt ist. Anders ließe sich die Entwicklung solch neuer Verfahren auch nicht realisieren. Neben Informatiker Kloft und Informatik-Professorin Dr. Heike Leitte sind an der TUK Verfahrenstechnik-Professor Dr. Hans Hasse beteiligt sowie Juniorprofessor Dr. Fabian Jirasek, der zum Maschinellen Lernen in der Verfahrenstechnik forscht, und Juniorprofessorin Dr. Sophie Fellenz, die sich ebenfalls mit dem Maschinellen Lernen befasst.

Maschinelles Lernen trifft physikalische Modellierung

Das Besondere bei Fellenz und Jirasek ist, dass die Carl-Zeiss-Stiftung ihre Juniorprofessuren als Tandem mit 1,5 Millionen Euro fördert. Ihr gemeinsames Ziel ist es, das Maschinelle Lernen mit der physikalischen Modellierung zusammenzuführen. Davon profitiert nun auch die neue DFG-Forschungsgruppe. Im Rahmen einer Mercator Fellowship wird zudem Informatik-Professor Dr. Stephan Mandt von der University of California in Irvine in das Projekt eingebunden, der unter anderem an Anwendungen des Maschinellen Lernens in den Naturwissenschaften forscht.

„Für uns steht weniger die Anzahl als die Qualität der Daten im Vordergrund“, fährt Kloft fort. Das Team geht dabei zwei Wege. Zum einen führt es im Labor selbst chemische Prozesse durch, um experimentelle Daten zu erheben, zum anderen generiert es auch synthetische Daten. „Jedes Experiment ist aufwendig und teuer. Uns geht es daher vor allem darum, die richtigen Daten zu erheben, also die, von denen die Deep Learning Methoden am meisten lernen können“, ergänzt Jirasek. Dazu kommt auf dem Campus in Kaiserslautern zum einen eine sogenannte Batch-Destillationsanlage zum Einsatz, mit der Daten dynamischer Prozesse erhoben werden. Weiterhin wird beim Projektpartner, der Technischen Universität München, am Standort Straubing eine kontinuierliche Produktionsanlage für synthetische Kraftstoffe im Pilotmaßstab betrieben.

Realistische Simulationen als Herausforderung

„Diese Anlagen sind mit einer Vielzahl von Sensoren ausgestattet, um unterschiedlichste Daten aufzunehmen, wie zum Beispiel Druck und Temperatur, aber auch Videos vom Innenleben oder die Zusammensetzung der eingesetzten Mischungen“, so der Juniorprofessor weiter.

Neben den Daten aus dem Labor werden weitere Daten mithilfe von physikalischen Simulationen und Verfahren der Künstlichen Intelligenz generiert. Eine besondere Herausforderung dabei ist, diese so realistisch wie möglich zu machen. „Wir verfolgen dazu zwei Ansätze“, erläutert Juniorprofessorin Fellenz. „Zum einen entwickeln wir Methoden, um den Stil der Experimentaldaten zu erlernen und diesen dann auf Simulationsdaten zu übertragen.“ Solche Methoden gibt es bereits, um die Tonalität von Texten zu verändern. In der Forschungsgruppe werden diese nun auf die Zeitreihendaten von chemischen Prozessen übertragen, welche genau wie Wörter in einem Text als sequentielle Daten aufgefasst werden können. „Zum anderen beziehen wir physikalische Gesetzmäßigkeiten, zum Beispiel aus der Thermodynamik, direkt in unsere Modelle ein, sodass wir auch realistische Daten aus Bereichen generieren können, in denen wir keine Messungen haben“, fährt die Informatikerin fort.

Chemische Anlagen im Blick

Ziel der nächsten vier Jahre ist es, mit den neuen Deep-Learning-Methoden Anomalien oder Fehler in chemischen Anlagen frühzeitig zu erkennen, aber auch passende Gegenmaßnahmen zu identifizieren. Dies ist von hoher praktischer Relevanz, da jeder Ausfall einer Anlage zumindest teuer ist, im schlimmsten Fall eine Gefahr für Mensch und Umwelt darstellt.

Die Beispiele dafür sind zahlreich, wie im Jahr 2013, als sich im US-amerikanischen Geismar (Louisiana) eine Explosion in einem Chemiewerk ereignete, bei der ein Mensch ums Leben kam und viele verletzt wurden. Ursache war ein Fehler in einem Wärmeübertrager. „Gerade bei solchen Anlagen können Anomalien im Prozess schlimme Konsequenzen haben“, fährt Kloft fort. Deep Learning Methoden könnten hier helfen, solche Fehler automatisch zu erkennen, um rechtzeitig eine Warnmeldung abzugeben. „Unsere Anomalie-Detektoren sollen dank Deep Learning viel sensitiver sein als herkömmliche Techniken.“

Gegenstand der Arbeiten ist es auch, die Informationen zu erklären, sie zu visualisieren und sie anschaulich darzustellen. Sie müssen schnell und einfach nachvollziehbar sein, damit Fachkräfte in der chemischen Industrie diese Verfahren nutzen und auf entsprechende Empfehlungen der Technik reagieren können. Ferner wird sich das Team damit befassen, seine Methoden zu verifizieren. Dazu kommen mathematische Verfahren zum Einsatz, mit denen sich überprüfen lässt, ob die Algorithmen richtig funktionieren. Kloft fährt fort: „Mit unserer Arbeit generieren wir einen komplett neuen Datensatz, den wir auch anderen zur Verfügung stellen werden.“

Informatik und Verfahrenstechnik

Professor Dr. Werner R. Thiel, Vizepräsident für Forschung und Technologie der TUK, unterstreicht die Bedeutung der neuen DFG-Forschungsgruppe: „Wir haben mit unseren beiden von der Carl-Zeiss-Stiftung geförderten Tandem-Juniorprofessuren den Grundstein für diesen Erfolg legen können. Damit bringen wir unsere Expertise aus der Informatik und der Verfahrenstechnik in das Vorhaben ein. Ohne diese Kombination wäre solch ein Projekt nicht möglich. Das ist ein Vorteil unseres Forschungsstandorts, der in vielen Bereichen interdisziplinär aufgestellt ist. Das zahlt sich nun wieder aus. Ich gratuliere allen Beteiligten herzlich.“

Der rheinland-pfälzische Wissenschaftsminister Clemens Hoch gratuliert ebenfalls: „Ich freue mich sehr über den Erfolg der Forschenden aus Kaiserslautern und Ihren Kooperationspartnern aus Oldenburg und Straubing. Die von der DFG geförderte Forschungsgruppe ist Ausweis der Forschungsstärke der TU in diesem hochaktuellen Forschungsgebiet und passt sich hervorragend in die KI-Strategie des Landes ein. Deutlich sichtbar wird auch bei diesem Vorhaben wieder, dass die Schlüsseltechnologie Künstliche Intelligenz ihre positiven, leistungsverstärkenden Beiträge in unterschiedlichsten Wissenschaftsdisziplinen und Anwendungen leisten kann.

Daher freut es mich sehr, dass wir uns in Rheinland-Pfalz glücklich schätzen können, führende KI-Forscherinnen und -Forscher, wie Herrn Professor Kloft und seine Kolleginnen und Kollegen, in unseren Einrichtungen zu haben, die mit ihren innovativen Projekten neue Möglichkeiten zum Einsatz von Künstlicher Intelligenz in Rheinland-Pfalz und darüber hinaus entwickeln.“

Prozesssimulationen vorantreiben

Langfristiges Ziel der Forschungsgruppe ist es, Methoden zum autonomen Betrieb von Anlagen in der chemischen Industrie zu entwickeln. Mit ihren Arbeiten will die Gruppe zudem die Prozesssimulation in der Verfahrenstechnik vorantreiben, indem sie neuartige Werkzeuge entwickeln und darin auch Datentypen einbinden wird, die derzeit noch gar nicht betrachtet werden.

Am Vorhaben beteiligt sind neben den Arbeitsgruppen der TU Kaiserslautern die Teams von Dr. Michael Bortz vom Fraunhofer-Institut für Techno- und Wirtschaftsmathematik ITWM in Kaiserslautern, Professor Dr. Jakob Burger von der TU München und Professor Dr. Daniel Neider von der Universität Oldenburg. Zudem eingebunden ist Professor Dr. Stephan Mandt von der University of California in Irvine als Mercator Fellow.

Firmen zu diesem Artikel
Verwandte Artikel