Big-Data Big-Data-Analysen – auf der Suche nach dem neuen Gold

Autor / Redakteur: Sabine Mühlenkamp / Dr. Jörg Kempf

Es ist ein Spiel der ganz großen Zahlen: Big-Data-Analysen werden als eine der Säulen angesehen, um Prozesse zu optimieren, Standorte effizienter zu gestalten, neue Geschäftsfelder zu generieren oder schlicht die Nase im globalen Wettbewerb etwas weiter vorne zu haben. Dass hier immense Potenziale liegen, ist Konsens – die Herausforderung liegt jedoch an anderer Stelle.

Firmen zum Thema

Intelligente Datenanalysen sind vergleichbar mit der Suche nach Gold.
Intelligente Datenanalysen sind vergleichbar mit der Suche nach Gold.
(Bild: © Style-Photography / stock.adobe.com; [M] Alban)

Mehr als eine Milliarde Euro planen die Chemieunternehmen in den nächsten drei bis fünf Jahren in Digitalisierungsprojekte oder neue digitale Geschäftsmodelle zu investieren, so die jüngste Studie zum Thema Industrie 4.0, die Anfang Oktober vom Verband der Chemischen Industrie und Deloittle vorgestellt wurde. Nicht verwunderlich also, dass bereits auf der Namur-Hauptsitzung 2016 Bayer-Mitarbeiter Thorsten Pötter die Herausforderungen einer intelligenten Datenanalyse mit der Suche nach Gold verglich.

Die Frage, wo die Daten liegen, ist meist schnell geklärt. Schließlich existieren in der gesamten Produktionskette bereits viele Systeme, die jede Menge Daten liefern. Die Lösung liegt nicht allein in besseren Algorithmen, leistungsstärkeren Computern oder Köpfen (etwa in Form von Chemie-ITlern), sondern in vielen Detailfragen. So sind die Datenquellen in der Prozessindustrie häufig heterogen. Abgesehen von verschiedenen Dateiformaten, sind die Informationen auch noch ohne ausreichende Zeitsynchronisation und ohne eine Definition der Semantik gespeichert. Zudem sorgen die schiere Datenmenge sowie Echtzeitanforderungen für große Herausforderungen.

Eine der Kernfragen lautet: Wie setzt man die Daten in den korrekten Zusammenhang? Selbst wenn die Daten vorliegen, sind die Ziele, also was genau denn optimiert werden soll, alles andere als eindeutig. Ein Standortleiter hat vielleicht seinen gesteigerten Produkterlös im Fokus, auf Konzernebene steht darüber hinaus aber möglicherweise die standortübergreifende Minimierung des Energieausstoßes im Vordergrund.

Unbeeindruckt von solchen Herausforderungen ist derzeit eine wahre Digitalisierungsoffensive im Gang. So verkündete beispielsweise der Spezialchemiekonzern Evonik im Sommer, für Digitalisierungsprojekte rund 100 Millionen Euro zur Verfügung zu stellen.

Auch bei BASF setzt man auf den verstärkten Einsatz digitaler Technologien. Zentrales Element ist dort ein neuer Supercomputer, der mit 1,75 Petaflops (das sind 1015 Rechenoperationen pro Sekunde) eine etwa zehnmal höhere Rechenleistung als bisher liefert.

Die Rechnung der BASF: Beim digitalen Ansatz gehen virtuelle Modellierungen und Simulationen am Computer sowie reale Experimente am Labortisch Hand in Hand und ergänzen sich gegenseitig. Das gewonnene, bessere Verständnis von chemischen Produkten und Prozessen ermöglicht so mehr Innovationen in kürzerer Zeit.

Erste Gold-Funde

So wurde in Ludwigshafen dank Digitalisierung erstmals eine systematische Untersuchung der Katalysator-Daten für die Herstellung des Zwischenprodukts Ethylenoxid möglich. Mit den ermittelten Korrelationen zwischen Rezeptur und Anwendungseigenschaften der Katalysatoren lassen sich ihre Performance und Lebensdauer besser und schneller vorhersagen.

Bei der Modellierung eines neuen funktionalen Polymers für die stabile Formulierung eines Wirkstoffs halfen digitale Technologien ebenfalls entscheidend mit. Aus über 10.000 Möglichkeiten konnten BASF-Experten die geeignete Polymerstruktur berechnen. Die anschließende Synthese führte zum gewünschten Formulierungspolymer, das eine deutlich höher konzentrierte Emulsion ermöglicht.

Auch GE Digital, Sponsor der diesjährigen Namur-Hauptsitzung im November, setzt auf eine intelligente Datenanalyse. Erste Beispiele stammen zwar aus der Flugzeugtechnik, beweisen aber die Dimension. So wurden Daten von mehr als 35.000 Flugzeugturbinen gesammelt und somit 100 Millionen Flugdaten pro Jahr verarbeitet. Die Kombination von analytischen Methoden bei einem hohen Datenvolumen und die physikalische Modellierung führten zur frühzeitigen und genaueren Fehlererkennung. Dadurch ließen sich die operativen Störungen signifikant minimieren.

Alternative Goldsuche

Vielleicht geht es aber auch einfacher. „Wir machen Data Science für Nicht-Data-Scientists“, erklärt Dr. Lukas Pansegrau, Account Executive D-A-CH für Trendminer, einem Universitäts-Spin-off aus den Niederlanden. Zum Anwenden der Software braucht es keine Kenntnisse der klassischen Datenanalyse, es werden auch keine mathematischen Modelle des Prozesses benötigt.

„Eine Anlage in der Prozessindustrie in ihrer Gesamtheit mathematisch zu beschreiben, ist eigentlich zu aufwändig“, so Pansegrau. Bei Trendminer nutzt man daher lieber das Wissen derjenigen, die die Anlage täglich fahren. Dabei vergleicht die Software ein bestimmtes Prozessverhalten in einem definierten zeitlichen Abschnitt mit ähnlichen Ereignissen in der Vergangenheit und präsentiert diese visuell. Der Operator kann auf dieser Grundlage selbst entscheiden, ob und wie er die Fahrweise verändert.

Bei Trendminer, das sich sowohl bei kontinuierlichen als auch Batchprozessen anwenden lässt, analysiert der Anwender seinen Prozess selbst. Das Team um Pansegrau implementiert die Software und unterstützt lediglich bei der Einführung. „Wir gehen von einem bis maximal drei Tagen Einarbeitungszeit aus, bis man mit unserer Software arbeiten kann“, so Pansegrau.

Beispiel Polymeranlage

Ein reales Beispiel: In einer Polymeranlage kam es während einer Verdünnungsphase immer wieder zu Engpässen im Fördersystem, was letztlich zu einem unerwünschten Druckanstieg führte. Der Fehler trat seit vier Jahren auf – seitdem ein neues Produkt auf der Anlage gefahren wurde – und wurde trotz intensiver Fehlersuche, bei dem sogar das gesamte Fördersystem auseinander genommen wurde, nicht gefunden. Trendminer suchte in der Historie zeitliche Abschnitte, in denen es zu einem ähnlichen Verhalten kam. Dies lieferte den entscheidenden Hinweis auf einen kurzen Druckabfall in einem der Reaktoren. An dieser Stelle wird eine kleine Menge an Kautschukteilchen hinzugefügt. Aufgrund des Druckabfalls hafteten die Polymerperlen aneinander und es kam zu kleineren Anhäufungen im Fördersystem, was letztlich zu einem erhöhten Druck führte. Die Menge dieser Anhäufungen im Endprodukt war jedoch so klein, dass selbst die doppelte Menge die Qualitätskontrolle nicht alarmiert hätte.

Die Lösung im Betrieb: Heute wird der Druck an diesem Reaktor überwacht und besser eingestellt. Die Effizienzsteigerung beträgt nach Angaben des Anwenders 16 % oder in Zahlen ausgedrückt: 100.000 Dollar pro Jahr. Für eine Big-Data-Analyse fehlte in dem Unternehmen schlicht das Know-how.

Aber nicht nur das: Aus Sicht von Pansegrau ist auch die Gewinnung der richtigen Daten aus einem Prozess nicht immer einfach. „Aus unserer Erfahrung wird bei der Analyse eines Prozesses zum einen nicht immer das gemessen, was eigentlich benötigt wird und zum anderen ist die Verknüpfung von Labor-und Prozessdaten nicht immer korrekt.“

Beispiel: Eine Probe, die auf 12:00 Uhr angeordnet wird, muss aus betrieblichen Gründen doch erst um 12:20 Uhr gezogen werden. Damit es keinen Ärger gibt, lässt man im Protokoll aber die Zeit auf 12:00 Uhr stehen, obwohl die Situation im Prozess vielleicht ganz anders war. Für eine Big-Data-Analyse sind jedoch genaue Daten unabdingbar.

Ergänzendes zum Thema
80. Namur-Hauptsitzung: Die digitale Transformation beherrschen

( Bild: Namur )

Im Fokus der diesjährigen Namur-Hauptsitzung, die am 9. und 10. November 2017 in Bad Neuenahr stattfindet, steht die Frage, wie die Prozessindustrie von der digitalen industriellen Transformation profitieren kann. Sponsor ist in diesem Jahr GE Digital. Für diese hat die digitale industrielle Transformation bereits begonnen und geht viel weiter als die Automatisierung der Fertigung. Sie soll sich die Interaktion zwischen Menschen, Assets und Prozessen drastisch verändern mit dem ultimativen Ziel, die nächste Generation operativer Intelligenz zu erreichen. In einem Plenarvortrag wird GE einige industrielle Anwendungsfälle entlang des Wegs der digitalen Transformation in der Prozessindustrie und Life Sciences zeigen.

(ID:44871220)

Über den Autor

 Sabine Mühlenkamp

Sabine Mühlenkamp

freie Journalistin, Pressebüro Mühlenkamp