Datenanalyse Was kommt nach Big Data? – Analyse großer Datenmengen in Verarbeitungsprozessen
Ein Weg, um Probleme und Fehler im Prozessablauf früh zu erkennen, ist ein selbstlernendes Assistenzsystem, dass Anlagendaten erfasst, den Prozess auf dieser Basis überwacht und automatisch Anomalien im Ablauf sowie Optimierungsbedarf erkennt. Der Beitrag stellt am Beispiel der Destillation ein Konzept vor, wie sich große Datenmengen handeln lassen.
Anbieter zum Thema

Big Data gehört zu den Schlagwörtern, die immer wieder genannt werden, wenn es um Herausforderungen in der Prozessautomatisierung geht. Und in der Tat: Die zunehmende Komplexität von Verarbeitungsprozessen und ein ständig wachsendes Datenaufkommen führen in vielen Fällen zu einer Überforderung des Anlagenpersonals in Hinblick auf die Prozessüberwachung, Datenanalyse und Fehlererkennung. „Aus diesen Gründen werden Probleme und Fehler oft zu spät erkannt, Wartungsintervalle kürzer als notwendig gewählt oder ein Optimierungspotenzial nicht ausreichend genutzt“, nennt Sebastian Schriegel vom Fraunhofer-Anwendungszentrum IOSB-INA gängige Probleme.
Allerdings ist es gar nicht so einfach, die erfassten Daten zu analysieren. Zum einen liegen diese oft verteilt vor und sind ohne ausreichende Zeitsynchronisation und ohne eine Definition der Semantik gespeichert. Zum anderen machen die Datenmenge sowie Echtzeitanforderungen eine manuelle Analyse, die beispielsweise auf den angezeigten Signalen basiert, auch dann nicht immer möglich. In der industriellen Praxis kommen solche Lösungen daher noch nicht häufig zum Einsatz. „Bisher nutzt man solche Daten eher dazu, um manuell Ereignisse nachzuverfolgen und um ein besseres Verständnis für den Prozess zu bekommen“, bestätigt Dr. Robert Kraus, Bayer.
Im Rahmen des Verbundprojektes AGATA (Analyse großer Datenmengen in Verarbeitungsprozessen) entwickelt das Fraunhofer-Anwendungszentrum IOSB-INA nun ein intelligentes Assistenzsystem. Dieses analysiert zunächst die verfügbaren Informationen und erkennt Anomalien. Die Integration des Assistenzsystems in verschiedene Verarbeitungsprozesse wird durch geeignete Ansätze zur Datenerfassung und flexible Methoden zur Prozessüberwachung erreicht, die durch Modell-Lernverfahren an veränderte Prozessabläufe angepasst werden können.
Schwerpunkt ist unter anderem die Integration großer Datenmengen aus zahlreichen heterogenen Datenquellen. Darüber hinaus werden Ansätze zur Prozessüberwachung und Anomalie-Erkennung in komplexen Verarbeitungsprozessen entwickelt. Diese werden anhand dreier Praxisbeispiele – einer Destillationskolonne, für einen landwirtschaftlichen Verarbeitungsprozess und in einer Sortieranlage der Ressourcenwirtschaft – untersucht.
Obwohl viele Big Data mit einer großen Menge an Daten gleichsetzen, ist es vor allem die Komplexität, die den Anwendern zu schaffen macht. Um ein Beispiel zu nennen: Allein für die große Destillationskolonne wurden ca. 60 Sensoren für die Überwachung eingesetzt. Die Abtastrate betrug ca. 1 min. Um das Modell zu trainieren, wurden Daten von einem Jahr verwendet. Daraus folgen ungefähr 30 Millionen Datenpunkte mit Zeitstempel. „Zudem musste der aktuelle Zustand schnell bewertet werden. Rechnet der Algorithmus erst eine halbe Stunde, ist im Prinzip schon zu viel Zeit vergangen“, beschreibt Kraus die Problematik. Zudem verschleißen Sensoren, sprich die Messungen verändern sich über das Jahr der Messung. Diese Informationen müssen ebenfalls in die Bewertung des Prozesszustands einfließen.
(ID:44245381)