Suchen

Datenanalyse So werden Sie vom Datensammler zum Datenversteher

Autor / Redakteur: Stefan Pauli* / Anke Geipel-Kern

Mit Datenanalyse-Tools können Betreiber verdeckte Zusammenhänge zwischen Prozessparametern aufdecken  – Viele haben vor Data Analytics-Projekten großen Respekt. Doch man muss nicht immer gleich die ganzen großen Räder drehen. Drei Beispielprojekte zeigen: Wer mit kleinen Schritten startet, schafft eine solide Basis für größere Vorhaben.

Firmen zum Thema

Der Anlagenbetrieb liefert Daten in großer Zahl, die Herausforderung ist, die Zusammenhänge zu verstehen.
Der Anlagenbetrieb liefert Daten in großer Zahl, die Herausforderung ist, die Zusammenhänge zu verstehen.
(Bild: VTU)

Prozessanlagen sind üblicherweise automatisiert und generieren eine Unmenge an Daten über Sensoren (Temperaturen, Durchflüsse, Füllstände, Druck etc.), manuellen Analyse-Eingaben, LIMS, etc. Daraus lassen sich mit Trendlinien einfache Zusammenhänge zwischen zwei oder drei Parametern erkennen, eine tiefere Analyse ist jedoch nicht möglich. (Big) Data-Analytics ermöglichen tiefere Einblicke und schaffen neue Zusammenhänge.

Von Daten zur Analyse bis zu Machine Learning

Dazu müssen in einem ersten Schritt die Daten aus verschiedenen Bereichen einander zugeordnet werden, z.B. via eindeutigen Batch Nummern und Zeitstempeln. Das können Daten aus automatisierungstechnisch völlig getrennten Produktionsbereichen sein oder auch aus verschiedenen Automations-Ebenen einer Anlage – SPS, PLS, MES, ERP. Darüber hinaus können zusätzliche Messinstrumente für einige Zeit installiert werden, deren Werte separat aufgezeichnet werden – heute kabellos sehr einfach möglich.

Event-Tipp der Redaktion

Unter dem Slogan „Die Digitalisierung entmystifizieren“ diskutieren die Teilnehmer auf dem Smart Process Manufacturing Kongress am 27. und 28. Oktober die aktuellen Herausforderungen der Digitalisierung. Schwerpunkt des Kongresses sind Best Practices mit Leuchtturmprojekten aus der Branche. Seien Sie dabei, wenn sich im Vogel Convention Center in Würzburg Fach- und Führungskräfte der Prozessindustrie über die digitale Transformation der Branche austauschen.

Auch händische Aufzeichnungen eines Betriebshandbuches, Laboranalysen etc. müssen in eine Datenbank mit einheitlichem Zeitstempel übertragen werden. Im nächsten Schritt erfolgt die Analyse dieser Daten mit ausgeklügelter Datenbereinigung, modernen Machine Learning Algorithmen und aussagekräftigen Visualisierungen. In der Datenbereinigung werden fehlerhafte Messwerte ausgeschlossen, Daten einander zugeordnet, verschiedene Quellen vereint, Datentransformationen vorgenommen (z.B. aus der Produktionszeit errechnen ob die Tag- oder Nachtschicht produziert).

So klappt es mit der Verständigung

Obwohl moderne Datenanalyse-Tools bei dieser Datenbereinigung unterstützende Funktionen bereitstellen, bleibt dies oft der aufwändigste Teil der Analyse. Anschließend sagen die Algorithmen wichtige Zielwerte einer Produktion selbstlernend vorher und alle Nutzer erkennen verdeckte Zusammenhänge zwischen den Zielwerten und den übrigen Produktionsparametern und Daten. Die zielgruppengerechte Präsentation der Analyseresultate ermöglicht einen ein konstruktiven Austausch zwischen Fach- und Datenspezialisten – ein Erfolgsfaktor für gelungene Datenanalyse-Projekte.

Eine Auswahl von Projekten, welche mit einem Aufwand von weniger als zehn Arbeitstagen bewältigt wurden, verdeutlichen den Nutzen kleinerer (Big) Data-Projekte. Bei den folgenden Projekten wurde auf eine bestehende Datensammlung zugegriffen.

Schlechte Ausbeuten in der Fermentation

Bei drei neuen baugleichen Fermentern in einem Pharmabetrieb lieferte ein Bioreaktor unter gleichen kontrollierten Bedingungen schlechtere Ausbeuten. Da die Betriebsmannschaft die Ursache nicht finden konnte, wurden die Produktions- und Prozessdaten offline mit dem Machine Learning Algorithmus «Random Forest» ausgewertet: Dieser analysiert gleichzeitig den Einfluss der verschiedenen Produktionsparameter auf die Ausbeute und prognostiziert die Ausbeute der drei Fermenter (siehe Grafik).

Die Grafik zeigt deutlich den Einfluss der Produktionsparameter der Fermentation auf die Vorhersage.
Die Grafik zeigt deutlich den Einfluss der Produktionsparameter der Fermentation auf die Vorhersage.
(Bild: VTU)

Der deutliche Einfluss des Parameters Substrat-Temperaturwertes (temp_Sub1) auf die Ausbeute war aus verfahrenstechnischer Sicht unerwartet, da solche Schwankungen nur sehr sporadisch auftraten. Angeregt durch diese neuen Information hat ein Verfahrensingenieur die Isolierung einer Zulaufleitung genauer untersucht, wobei er einen Isolationsfehler entdeckte, der die Substrat-Temperatur und in der Konsequenz auch die Ausbeute beeinflusste. Mit einer neuen intakten Isolation konnte das Problem einfach behoben werden. Dies ist eines der eindrücklichsten Beispiele einer Zusammenarbeit zwischen Fach- und Datenexperten. Denn vor der Analyse hatten Fachexperten erfolglos die Ursache gesucht, noch viel weniger hätten die Datenexperten mit ihren Algorithmen allein diesen Isolationsfehler gefunden. Doch zusammen und durch die Datenanalyse war der Fehler schnell behoben. Mit einem Aufwand von ca. 80 Stunden war dies ein überschaubarer Prozess.

Predictive Maintenance bei Kompressorschäden

In einer großen Polyolefin-Produktion fiel die Gleitringdichtung des Hauptkompressors in den letzten Jahren mehrfach und unvorhersehbar mit direkten Kosten von über 100 000 € aus sowie einigen Tagen Stillstand pro Ausfall. In nur 40 Stunden wurde eine offline-Datenanalyse aus vorhandenen Daten von 150 Stell- und Messgrößen entwickelt. Mit dieser Methode wurden Zusammenhänge zwischen Stillständen und einigen der gegebenen Parameter entdeckt. Dank einer Neueinstellung der relevanten Maschinenparameter durch den Hersteller und die Produktion konnten neue Schäden an der Gleitringdichtung bis dato verhindert werden.

Inbetriebnahme einer Destillationskolonne

In einer neu automatisierten Destillationskolonne schwankte die Batch-Destillation deutlich, und überschritt die Vorgabezeit um bis zu 30 %, was zu einem Rückstau in der vorgelagerten Produktion führte. Vermutete Einflüsse auf die Destillationsdauer z.B. die Aufheizgeschwindigkeit konnten auf die Schnelle mit den Algorithmen nicht bestätigt werden und es gelang auch nicht die Destillationsdauer vorherzusagen. Eine neu erstellte Visualisierung offenbarte den Grund der teilweise langen Destillation: Es gab teilweise lange Totzeiten am Ende des ersten Destillationsschritts sowie beim finalen Prozessschritt. Der Grund war dank der datenbasierten versachlichten Diskussion schnell gefunden: Die Automation erkannte nicht, dass der jeweilige Schritt beendet hätte werden können und wartete daher stundenlang vergebens. Eine kostengünstige Korrektur der Steuerung reichte, um das Problem des Rückstaus wegen langsamer Batch-Destillation zu beheben.

Diese eher simple Analyse benötigte nur 12 Stunden, die Auswirkung auf die Produktion war aber groß. Dieses Beispiel zeigt – egal ob mit Algorithmen oder Visualisierungen – das Wesentliche ist die Datennutzung, um in Zusammenarbeit mit Fach- und Datenexperten effizient zu einer Lösung zu kommen.

Geringer Aufwand – Hoher Nutzen

Die Beispiele zeigen, dass (Big) Data Analytics auch mit sehr geringem Aufwand einen hohen Nutzen bringen. Oft gibt es eine Scheu vor dem Schritt zur Unterstützung durch solche Methoden, weil Betreiber das Schreckgespenst eines jahrelangen Softwareprojektes vor Augen haben.

Auch bei Großprojekten ist ein schrittweises Vorgehen anzuraten. In Piloten, wie den oben beschriebenen, lernt einerseits der Betreiber den Nutzen kennen und andererseits gewinnt der Data Scientist den Überblick über die bestehenden Daten. Zusätzlich erlaubt dies die nächsten Schritte zu langfristiger Datennutzung fachmännisch aufzugleisen.

Weitere Schritte auf Basis von Datenanalysen ergeben sich zum Beispiel aus datengetriebenen Online-Optimierungen der Prozessregelung bis zu ganzen Unternehmensprozessen weit über den Anlagenbetrieb hinaus (Wartung, Lieferketten, Marketing etc.). Die langfristigen Möglichkeiten gehen bis zur selbstlernenden, selbstoptimierenden, selbststeuernden und selbständig eingreifenden Künstlichen Intelligenz. Doch auch hier sollte in kleinen Schritten begonnen werden und später mit dem Erfolg zu wachsen.

* * Der Autor ist Senior Data Scientist bei VTU,

(ID:46636200)