Mit Datenanalyse-Tools können Betreiber verdeckte Zusammenhänge zwischen Prozessparametern aufdecken – Viele haben vor Data Analytics-Projekten großen Respekt. Doch man muss nicht immer gleich die ganzen großen Räder drehen. Drei Beispielprojekte zeigen: Wer mit kleinen Schritten startet, schafft eine solide Basis für größere Vorhaben.
Der Anlagenbetrieb liefert Daten in großer Zahl, die Herausforderung ist, die Zusammenhänge zu verstehen.
(Bild: VTU)
Prozessanlagen sind üblicherweise automatisiert und generieren eine Unmenge an Daten über Sensoren (Temperaturen, Durchflüsse, Füllstände, Druck etc.), manuellen Analyse-Eingaben, LIMS, etc. Daraus lassen sich mit Trendlinien einfache Zusammenhänge zwischen zwei oder drei Parametern erkennen, eine tiefere Analyse ist jedoch nicht möglich. (Big) Data-Analytics ermöglichen tiefere Einblicke und schaffen neue Zusammenhänge.
Von Daten zur Analyse bis zu Machine Learning
Dazu müssen in einem ersten Schritt die Daten aus verschiedenen Bereichen einander zugeordnet werden, z.B. via eindeutigen Batch Nummern und Zeitstempeln. Das können Daten aus automatisierungstechnisch völlig getrennten Produktionsbereichen sein oder auch aus verschiedenen Automations-Ebenen einer Anlage – SPS, PLS, MES, ERP. Darüber hinaus können zusätzliche Messinstrumente für einige Zeit installiert werden, deren Werte separat aufgezeichnet werden – heute kabellos sehr einfach möglich.
Event-Tipp der Redaktion
Unter dem Slogan „Die Digitalisierung entmystifizieren“ diskutieren die Teilnehmer auf dem Smart Process Manufacturing Kongress am 27. und 28. Oktober die aktuellen Herausforderungen der Digitalisierung. Schwerpunkt des Kongresses sind Best Practices mit Leuchtturmprojekten aus der Branche. Seien Sie dabei, wenn sich im Vogel Convention Center in Würzburg Fach- und Führungskräfte der Prozessindustrie über die digitale Transformation der Branche austauschen.
Auch händische Aufzeichnungen eines Betriebshandbuches, Laboranalysen etc. müssen in eine Datenbank mit einheitlichem Zeitstempel übertragen werden. Im nächsten Schritt erfolgt die Analyse dieser Daten mit ausgeklügelter Datenbereinigung, modernen Machine Learning Algorithmen und aussagekräftigen Visualisierungen. In der Datenbereinigung werden fehlerhafte Messwerte ausgeschlossen, Daten einander zugeordnet, verschiedene Quellen vereint, Datentransformationen vorgenommen (z.B. aus der Produktionszeit errechnen ob die Tag- oder Nachtschicht produziert).
So klappt es mit der Verständigung
Obwohl moderne Datenanalyse-Tools bei dieser Datenbereinigung unterstützende Funktionen bereitstellen, bleibt dies oft der aufwändigste Teil der Analyse. Anschließend sagen die Algorithmen wichtige Zielwerte einer Produktion selbstlernend vorher und alle Nutzer erkennen verdeckte Zusammenhänge zwischen den Zielwerten und den übrigen Produktionsparametern und Daten. Die zielgruppengerechte Präsentation der Analyseresultate ermöglicht einen ein konstruktiven Austausch zwischen Fach- und Datenspezialisten – ein Erfolgsfaktor für gelungene Datenanalyse-Projekte.
Eine Auswahl von Projekten, welche mit einem Aufwand von weniger als zehn Arbeitstagen bewältigt wurden, verdeutlichen den Nutzen kleinerer (Big) Data-Projekte. Bei den folgenden Projekten wurde auf eine bestehende Datensammlung zugegriffen.
Bei drei neuen baugleichen Fermentern in einem Pharmabetrieb lieferte ein Bioreaktor unter gleichen kontrollierten Bedingungen schlechtere Ausbeuten. Da die Betriebsmannschaft die Ursache nicht finden konnte, wurden die Produktions- und Prozessdaten offline mit dem Machine Learning Algorithmus «Random Forest» ausgewertet: Dieser analysiert gleichzeitig den Einfluss der verschiedenen Produktionsparameter auf die Ausbeute und prognostiziert die Ausbeute der drei Fermenter (siehe Grafik).
Die Grafik zeigt deutlich den Einfluss der Produktionsparameter der Fermentation auf die Vorhersage.
(Bild: VTU)
Der deutliche Einfluss des Parameters Substrat-Temperaturwertes (temp_Sub1) auf die Ausbeute war aus verfahrenstechnischer Sicht unerwartet, da solche Schwankungen nur sehr sporadisch auftraten. Angeregt durch diese neuen Information hat ein Verfahrensingenieur die Isolierung einer Zulaufleitung genauer untersucht, wobei er einen Isolationsfehler entdeckte, der die Substrat-Temperatur und in der Konsequenz auch die Ausbeute beeinflusste. Mit einer neuen intakten Isolation konnte das Problem einfach behoben werden. Dies ist eines der eindrücklichsten Beispiele einer Zusammenarbeit zwischen Fach- und Datenexperten. Denn vor der Analyse hatten Fachexperten erfolglos die Ursache gesucht, noch viel weniger hätten die Datenexperten mit ihren Algorithmen allein diesen Isolationsfehler gefunden. Doch zusammen und durch die Datenanalyse war der Fehler schnell behoben. Mit einem Aufwand von ca. 80 Stunden war dies ein überschaubarer Prozess.
Predictive Maintenance bei Kompressorschäden
In einer großen Polyolefin-Produktion fiel die Gleitringdichtung des Hauptkompressors in den letzten Jahren mehrfach und unvorhersehbar mit direkten Kosten von über 100 000 € aus sowie einigen Tagen Stillstand pro Ausfall. In nur 40 Stunden wurde eine offline-Datenanalyse aus vorhandenen Daten von 150 Stell- und Messgrößen entwickelt. Mit dieser Methode wurden Zusammenhänge zwischen Stillständen und einigen der gegebenen Parameter entdeckt. Dank einer Neueinstellung der relevanten Maschinenparameter durch den Hersteller und die Produktion konnten neue Schäden an der Gleitringdichtung bis dato verhindert werden.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel Communications Group GmbH & Co. KG, Max-Planckstr. 7-9, 97082 Würzburg einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
In einer neu automatisierten Destillationskolonne schwankte die Batch-Destillation deutlich, und überschritt die Vorgabezeit um bis zu 30 %, was zu einem Rückstau in der vorgelagerten Produktion führte. Vermutete Einflüsse auf die Destillationsdauer z.B. die Aufheizgeschwindigkeit konnten auf die Schnelle mit den Algorithmen nicht bestätigt werden und es gelang auch nicht die Destillationsdauer vorherzusagen. Eine neu erstellte Visualisierung offenbarte den Grund der teilweise langen Destillation: Es gab teilweise lange Totzeiten am Ende des ersten Destillationsschritts sowie beim finalen Prozessschritt. Der Grund war dank der datenbasierten versachlichten Diskussion schnell gefunden: Die Automation erkannte nicht, dass der jeweilige Schritt beendet hätte werden können und wartete daher stundenlang vergebens. Eine kostengünstige Korrektur der Steuerung reichte, um das Problem des Rückstaus wegen langsamer Batch-Destillation zu beheben.
Diese eher simple Analyse benötigte nur 12 Stunden, die Auswirkung auf die Produktion war aber groß. Dieses Beispiel zeigt – egal ob mit Algorithmen oder Visualisierungen – das Wesentliche ist die Datennutzung, um in Zusammenarbeit mit Fach- und Datenexperten effizient zu einer Lösung zu kommen.
Geringer Aufwand – Hoher Nutzen
Die Beispiele zeigen, dass (Big) Data Analytics auch mit sehr geringem Aufwand einen hohen Nutzen bringen. Oft gibt es eine Scheu vor dem Schritt zur Unterstützung durch solche Methoden, weil Betreiber das Schreckgespenst eines jahrelangen Softwareprojektes vor Augen haben.
Auch bei Großprojekten ist ein schrittweises Vorgehen anzuraten. In Piloten, wie den oben beschriebenen, lernt einerseits der Betreiber den Nutzen kennen und andererseits gewinnt der Data Scientist den Überblick über die bestehenden Daten. Zusätzlich erlaubt dies die nächsten Schritte zu langfristiger Datennutzung fachmännisch aufzugleisen.
Weitere Schritte auf Basis von Datenanalysen ergeben sich zum Beispiel aus datengetriebenen Online-Optimierungen der Prozessregelung bis zu ganzen Unternehmensprozessen weit über den Anlagenbetrieb hinaus (Wartung, Lieferketten, Marketing etc.). Die langfristigen Möglichkeiten gehen bis zur selbstlernenden, selbstoptimierenden, selbststeuernden und selbständig eingreifenden Künstlichen Intelligenz. Doch auch hier sollte in kleinen Schritten begonnen werden und später mit dem Erfolg zu wachsen.