Datenanalyse Was kommt nach Big Data? – Analyse großer Datenmengen in Verarbeitungsprozessen
Ein Weg, um Probleme und Fehler im Prozessablauf früh zu erkennen, ist ein selbstlernendes Assistenzsystem, dass Anlagendaten erfasst, den Prozess auf dieser Basis überwacht und automatisch Anomalien im Ablauf sowie Optimierungsbedarf erkennt. Der Beitrag stellt am Beispiel der Destillation ein Konzept vor, wie sich große Datenmengen handeln lassen.
Anbieter zum Thema

Big Data gehört zu den Schlagwörtern, die immer wieder genannt werden, wenn es um Herausforderungen in der Prozessautomatisierung geht. Und in der Tat: Die zunehmende Komplexität von Verarbeitungsprozessen und ein ständig wachsendes Datenaufkommen führen in vielen Fällen zu einer Überforderung des Anlagenpersonals in Hinblick auf die Prozessüberwachung, Datenanalyse und Fehlererkennung. „Aus diesen Gründen werden Probleme und Fehler oft zu spät erkannt, Wartungsintervalle kürzer als notwendig gewählt oder ein Optimierungspotenzial nicht ausreichend genutzt“, nennt Sebastian Schriegel vom Fraunhofer-Anwendungszentrum IOSB-INA gängige Probleme.
Allerdings ist es gar nicht so einfach, die erfassten Daten zu analysieren. Zum einen liegen diese oft verteilt vor und sind ohne ausreichende Zeitsynchronisation und ohne eine Definition der Semantik gespeichert. Zum anderen machen die Datenmenge sowie Echtzeitanforderungen eine manuelle Analyse, die beispielsweise auf den angezeigten Signalen basiert, auch dann nicht immer möglich. In der industriellen Praxis kommen solche Lösungen daher noch nicht häufig zum Einsatz. „Bisher nutzt man solche Daten eher dazu, um manuell Ereignisse nachzuverfolgen und um ein besseres Verständnis für den Prozess zu bekommen“, bestätigt Dr. Robert Kraus, Bayer.
Im Rahmen des Verbundprojektes AGATA (Analyse großer Datenmengen in Verarbeitungsprozessen) entwickelt das Fraunhofer-Anwendungszentrum IOSB-INA nun ein intelligentes Assistenzsystem. Dieses analysiert zunächst die verfügbaren Informationen und erkennt Anomalien. Die Integration des Assistenzsystems in verschiedene Verarbeitungsprozesse wird durch geeignete Ansätze zur Datenerfassung und flexible Methoden zur Prozessüberwachung erreicht, die durch Modell-Lernverfahren an veränderte Prozessabläufe angepasst werden können.
Schwerpunkt ist unter anderem die Integration großer Datenmengen aus zahlreichen heterogenen Datenquellen. Darüber hinaus werden Ansätze zur Prozessüberwachung und Anomalie-Erkennung in komplexen Verarbeitungsprozessen entwickelt. Diese werden anhand dreier Praxisbeispiele – einer Destillationskolonne, für einen landwirtschaftlichen Verarbeitungsprozess und in einer Sortieranlage der Ressourcenwirtschaft – untersucht.
Obwohl viele Big Data mit einer großen Menge an Daten gleichsetzen, ist es vor allem die Komplexität, die den Anwendern zu schaffen macht. Um ein Beispiel zu nennen: Allein für die große Destillationskolonne wurden ca. 60 Sensoren für die Überwachung eingesetzt. Die Abtastrate betrug ca. 1 min. Um das Modell zu trainieren, wurden Daten von einem Jahr verwendet. Daraus folgen ungefähr 30 Millionen Datenpunkte mit Zeitstempel. „Zudem musste der aktuelle Zustand schnell bewertet werden. Rechnet der Algorithmus erst eine halbe Stunde, ist im Prinzip schon zu viel Zeit vergangen“, beschreibt Kraus die Problematik. Zudem verschleißen Sensoren, sprich die Messungen verändern sich über das Jahr der Messung. Diese Informationen müssen ebenfalls in die Bewertung des Prozesszustands einfließen.
Das Beispiel der Destillationskolonne wurde jedoch bewusst gewählt, da dieser Prozess typisch für die chemische Industrie ist und daran entwickelte Methoden leicht auf weitere verfahrenstechnische Apparate übertragen werden können. Es gibt eine große Anzahl an Systemzuständen und Stellgrößen, zwischen denen komplexe physikalische Zusammenhänge bestehen.
„Für das wirtschaftliche Betreiben solcher Anlagen sind die Überprüfung der korrekten Funktionalität, die Fehlersuche, das frühzeitige Erkennen drohender Komponentenausfälle und eine konsequente Prozessüberwachung von entscheidender Bedeutung“, so Kraus. Typische Anomalien in einer Destillationskolonne, die im Laufe eines Jahres eintreten, betreffen den Verschleiß von Pumpen, Fouling, Korrosion, Verunreinigungen der Einsatzstoffe aber auch fehlerhafte Reglereinstellungen oder Fehler seitens der Bediener.
Heterogene Netzwerke zusammenführen
Die großen Datenmengen, die in chemischen Verarbeitungsprozessen anfallen, werden in unterschiedlichen Teilsystemen erfasst. Auf der Feld- und Steuerungsebene industrieller Automatisierungssysteme werden in der Regel IEC 61131-3 Funktionsblöcke zur Kommunikation verwendet (z.B. TCP/IP oder SQL). Auf Leitebene werden in industriellen Automatisierungssystemen Object Linking and Embedding for Process Control (OPC DA, OPC HDA etc.) und die OPC Unified Architecture (OPC UA) verwendet. Zur Beschreibung der Daten kann auf verschiedene Informationsmodelle zurückgegriffen werden.
Beispiele sind CAEX oder CIM (Common Information Model). Auch OPC UA beinhaltet ein Informationsmodell, mit dem sich systemweite Messungen einheitlich beschreiben lassen. Die Kombination der beschriebenen Methoden führt in der industriellen Praxis zu heterogenen Netzwerken mit branchenspezifischen Strukturen. „Bislang existiert kein einheitlicher Datenerfassungsansatz, der einen universellen Einsatz von Methoden zur automatischen Datenanalyse ermöglicht.
Eine mögliche Herangehensweise an diese Problematik besteht darin, die heterogenen Netzwerke und Komponenten, die in der Automatisierungstechnik Verwendung finden, über OPC UA an eine zentrale Infrastruktur anzubinden“, erklärt Dr.-Ing. Stefan Windmann vom Fraunhofer IOSB-INA.
Für chemische Destillationskolonnen werden Daten auf verschiedenen Ebenen, d.h. insbesondere auf der Feld-, der Leit- und der Unternehmensebene, für verschiedene Zwecke erfasst. Eingesetzt werden Software-Tools und Kommunikationsschnittstellen wie OPC-DA, OPC-HDA, OPC-UA und SQL. Wichtigste Prozessdaten sind dabei Temperaturen, Drücke, Durchflussraten und Steuerungswerte. Die Messpunkte sind hinsichtlich der zeitlichen Auflösung nicht äquidistant und schwanken abhängig von den Messwerten.
In dem Projekt wurden verschiedene modellbasierte und datenbasierte Anomalie-Erkennungsverfahren untersucht: Distanzbasierte Methoden berechnen die Entfernung potentieller Anomalien zu den nächsten Nachbarn in historischen Datensätzen. Regressionsmodelle und selbstorganisierende Karten werden dagegen verwendet, um Beobachtungen vorherzusagen und die vorhergesagten Werte mit den tatsächlichen Beobachtungen zu vergleichen.
Im Fall der Destillationskolonnen wurde ein datengetriebenes Systemmodell in Form einer selbstorganisierenden Karte erzeugt. Mit einer Watershed Transformation wurden die verschiedenen Prozessphasen oder Betriebszustände des Systems ermittelt (z.B. das Leeren und Füllen der Container). Dafür wurde eine Demonstrationsanlage erstellt, die im Kern aus zwei Containern besteht, zwischen denen Flüssigkeit in Zyklen mit verschiedenen Pumpenleistungen und Ventilöffnungen hin- und hergepumpt wird. Daraus resultierte eine selbstorganisierende Karte, mit der man in der Lage ist, dieses nichtlineare Verhalten abzubilden.
Basierend auf dieser gelernten selbstorganisierenden Karte wurde online das Prozessverhalten diagnostiziert. Eingriffe in das Prozessverhalten zeigen sich eindeutig im Verlauf des Quantisierungsfehlers der selbstorganisierenden Karte und lassen sich über eine Schwellwertentscheidung ermitteln. „Das Konzept wird aktuell auf großen Datensätzen, die sich für industrielle Destillationskolonnen ergeben, evaluiert. Erste Resultate zeigen, dass das Konzept erfolgreich auf Anwendungen aus der industriellen Praxis übertragen werden kann“, so Windmann.
Ausblick
Die Ergebnisse in Bezug auf die Destillationskolonne wurden mit historischen Daten aus der Produktion und einer Pilotanlage bei Bayer getestet. Aktuell arbeitet das Team an der Implementierung im laufenden Betrieb. Weiter soll die Übertragbarkeit auf andere Anwendungen und die Skalierbarkeit auf große Datenmengen noch verstärkt untersucht werden. Eventuell könnte es auch von Interesse sein, andere Datenquellen zu erschließen. So können Übergabedokumente von Schichten interessante Informationen über den Zustand der Anlage beinhalten.
Nicht nur für Destillationskolonnen könnte sich das Assistenzsystem als nützlich erweisen. Für Kraus sind die Erkenntnisse aus dem Projekt für alle chemischen Prozesse, die sich durch ein nichtlineares Verhalten auszeichnen, interessant. Hintergrund ist, dass eine physikalische Modellierung sehr aufwändig ist und einfache datengetriebene Modelle zu ungenau sind.
Anm. d. Red.: Das Projekt wird vom BMBF im Rahmen des Verbundprojektes AGATA gefördert und vom Projektträger im Deutschen Zentrum für Luft- und Raumfahrt betreut.
(ID:44245381)