Suchen

Mathematische Modelle für die Digitalisierung Wie Mathematik hilft den Datenschatz zu heben

| Redakteur: Anke Geipel-Kern

Wie geht man mit den großen Datenmengen um, die Digitalisierung ermöglichen können? Welche Herausforderungen sind dabei zu bewältigen? Das versuchen Wissenschaftler aus Industrie und Hochschulen derzeit in den Griff zu bekommen.

Firmen zum Thema

Michael Bortz (Fraunhofer ITWM), Prof. André Bardow (RHTH Aachen), Prof. Karl-Heinz Küfer (Fraunhofer ITWM) und Martin Strohrmann (BASF SE) (v.l.n.r.) bei dem Workshop „Digitization in Chemical industry“ in Kaiserslautern.
Michael Bortz (Fraunhofer ITWM), Prof. André Bardow (RHTH Aachen), Prof. Karl-Heinz Küfer (Fraunhofer ITWM) und Martin Strohrmann (BASF SE) (v.l.n.r.) bei dem Workshop „Digitization in Chemical industry“ in Kaiserslautern.
(Bild: Fraunhofer ITWM)

Gleich ob Deep Learning, Künstliche Intelligenz, predictive Maintanance, oder Data Analytics – ohne mathematische Modelle, Algorithmen und Datenwissenschaft geht in der Digitalisierung gar nichts. Doch Deutschland droht den Anschluss zu verlieren. In Amerika und China ist man schneller und weitaus risikofreudiger wie in Deutschland. Hierzulande ist vor allem der „Digital Twin“ in aller Munde.

Der digitale Zwilling steht im Zentrum

Der digitale Zwilling repräsentiert das reale Objekt in der virtuellen Welt. Gekoppelt mit realen Daten soll er die Durchführung komplexer Analysen und Simulationen erlauben. Dazu soll das 3D-Modell mit Künstlicher Intelligenz, Optimierung lernen und autonom den Entwurf einer Produktionsanlage bestmöglich unterstützen sowie verlässlich begleiten – vom Design über den Bau bis hin zu ihrem Betrieb? Beim internationalen Workshop „Digitization in Chemical Industry“ kamen universitäre Spitzenforschung, Industrie und Fraunhofer Kompetenz zusammen, um gemeinsam diese Schlagworte mit Leben und Substanz zu füllen.

„Digitalisierung bringt riesige Veränderungen, auch in der chemischen Industrie. Wir müssen den Wandel jetzt vorantreiben, um international wettbewerbsfähig zu bleiben“, betonte Martin Strohrmann auf dem internationalen Workshop, den das Leistungszentrum „Simulations- und Software-basierte Innovation“ am Fraunhofer ITWM in Kaiserslautern veranstaltet hat. Strohrmann organisiert bei der BASF die Digitalisierung der Forschung und kennt die Herausforderungen aus der eigenen Praxis.

Welche Voraussetzung braucht der digitale Zwilling?

Internationale Forscher aus Chemieindustrie und Forschung diskutierten auf dem Workshop neue Methoden der Digitalisierung, die überhaupt erst die Voraussetzung für einen digitalen Zwilling darstellen: Algorithmen, die schnell, zuverlässig und transparent ein verlässliches Modell von realen Prozessen erstellen, auf dessen Grundlage Verbesserungsvorschläge gemacht werden.

Namhafte Industrievertreter – darunter BASF, Linde, Evonik, Lonza – erklärten die Anforderungen und Herausforderungen in der täglichen Praxis: Unternehmen müssen Innovationspotenziale schnell erkennen und heben, verschiedenste Anforderungen an Sicherheit, Nachhaltigkeit und Produktivität von Produktionsanlagen sind zu beachten.

Von der Forschung in die Praxis

Die Beiträge des Fraunhofer ­ITWM zeigten deutlich, wie ein Transfer der Chancen, die die akademische Forschung aufzeigt, in Form von praxistauglichen Innovationen gelingt. Die Speaker präsentierten Softwarearchitekturen, -module und Algorithmen, anhand derer sich die Teilnehmer ein Bild davon machen konnten, wie Forschung in kurzer Zeit live gehen kann. Der gezeigte Nutzen bei den Industriepartnern spricht für sich.

Daten strukturieren und verstehen

Ein Problem – nicht nur in der chemischen Industrie – ist die Qualität der Datenlage. Erhoben werden Daten während des Prozesses mit Sensoren, die an verschiedenen Punkten der Produktionsanlagen angebracht sind. Nicht ganz klar ist, ob die Sensoren immer voll funktionsfähig sind, ob es eine ausreichende Anzahl an Sensoren gibt, um den Vorgang abzubilden und ob sie an den richtigen Stellen der Anlage sitzen.

Darüber hinaus gibt es externe Faktoren, die die Datenerhebung verzerren können. Häufig können rein datenbasierte Algorithmen nicht ausreichend trainiert werden, weil die Daten, aus denen sie lernen sollen, zu inhomogen oder zu dürftig sind.

Verschiedene Betriebszustände erfassen

„Wenn man verlässlich aus Daten lernen möchte, braucht man möglichst vollständige Informationen über die Varianten des betrachteten Gegenstands“, sagte Michael Bortz, Abteilungsleiter „Optimierung – Technische Prozesse“ am Fraunhofer ITWM. Soll beispielsweise in der Bildverarbeitung ein Algorithmus darauf trainiert werden, einen Hahn zu erkennen, muss man ihm viele verschiedene Bilder von Hähnen zeigen. Übertragen auf verfahrens- technische Produktionsprozesse bedeutet das, dass die Vielfalt von möglichen Betriebszuständen vollständig in Form von Messdaten abgebildet sein müsste – was in der industriellen Praxis weder möglich noch sinnvoll ist.

Greybox statt Blackbox

Deshalb arbeiten die Wissenschaftler mit Greybox-Modellen, denn eine rein datenbasierte Modellbildung reicht nicht aus. Erst dann entsteht durch die Kombination von physikalischem Prozesswissen und vorhandenen Daten ein verlässliches Gesamtbild. Prof. Dr. Karl-Heinz Küfer, Bereichsleiter Optimierung am Fraunhofer ITWM erklärte:„Unser Ziel ist die seriöse Kopplung von Methoden der Datenanalyse und physikalischen Modellen. Dazu arbeiten wir mit Greybox-Modellen, denn eine rein datenbasierte Modellbildung reicht nicht aus.“

Beyond Number 42: Die richtigen Fragen stellen

Welche großen Fortschritte bei den digitalen Methoden zur Optimierung von Energieversorgung, auch bei der chemischen Industrie, bereits gemacht wurden, zeigte Prof. André Bardow, Inhaber des Lehrstuhls für Technische Thermodynamik an der RWTH Aachen. Algorithmen und Rechenergebnisse alleine würden dabei nicht ausreichen: „Das wissen wir aus ‘Per Anhalter durch die Galaxis’. Es kommt auch darauf an, die richtigen Fragen zu stellen. Sonst stehen wir ratlos vor einem Ergebnis 42.“ In seinem Vortrag erläuterte Bardow Methoden, die es erlauben Fragen zu stellen bzw. systematische Erkenntnisse aus den Ergebnissen abzuleiten. Er betonte, dass es nicht reicht, das bestmögliche Ergebnis als Resultat einer mathematischen Optimierung zu kennen; man muss vielmehr verstehen, warum dieses Ergebnis unter den gemachten Annahmen das Beste ist, und was sich daran ändert, wenn sich die Annahmen ändern.

Die Qual der Wahl – Entscheidungsunterstützung

Damit ist eine wesentliche neue Zutat digitaler Methoden genannt: die Entscheidungsunterstützung. Jeder kennt es aus dem Alltag: Man möchte ein neues Handy oder ein neues Fahrrad kaufen. Bevor der Verbraucher das tut, vergleicht er – und das kann mühsam und zeitaufwändig sein. Am Ende entscheidet er sich, entweder, weil er mit dem Gefundenen zufrieden ist – aber leider auch zu oft, weil er einfach genervt ist und nicht noch mehr Zeit in die Suche investieren will.

Warum Digitalisierung dem Menschen nutzt

Bei komplexen Prozessen verliert der Mensch schnell die Übersicht und noch schneller die Geduld – aber beides ist wichtig, wenn es beispielsweise um größere Entscheidungen wie Investitionen geht. Der Computer wird dann dazu eingesetzt, um transparent vergleichen zu können. Diese Vergleiche müssen verlässlich, schnell und transparent sein – dies ist ein Beispiel für den Nutzen von Digitalisierung. Die Technik nimmt dem Menschen die Arbeit ab, für die er eigentlich nicht gemacht ist – nämlich komplexe Zusammenhänge in kurzer Zeit durchzu­spielen.

So kann er sich auf seine Kernkompetenz konzentrieren: das Abwägen und das Verstehen von Chancen und Risiken vielversprechender Alternativen. Zahlreiche Projektbeispiele zeigen, dass damit ein erheblicher Nutzen nicht nur für die Wirtschaftlichkeit, sondern auch für die Nachhaltigkeit von Prozessen einhergeht.

Neue Werkzeuge und Aufbruchsstimmung

Es wurde auch klar, dass sich die Art der Werkzeuge, um Modelle, Simulationsmodule und Optimierungsalgorithmen zu entwickeln, erheblich gewandelt hat. Ein starker Trend geht weg von proprietärer Software mit im allgemeinen schlecht dokumentierten Schnittstellen. Vielmehr setzt der Anwender auf offene, frei verfügbare Entwicklungsumgebungen, die einen transparenten modularen Aufbau von digitalen Zwillingen ermöglichen. So ist es möglich, in kurzer Zeit neue Algorithmen einzubinden und höhere Rechnerleistung effizient auszunutzen. Dieser Wandel hin zu agilen Prozessen ist charakteristisch für das Zeitalter der Digitalisierung. Das schafft die Voraussetzung, um Innovationen schnell und mit wenig Aufwand zu testen, bei Misserfolg schnell einzulenken und bei Erfolg zu realisieren.

Wissenschaftler gestalten den Wandel mit

Wissenschaftliche Diskussionen und persönliches Networking bilden die Basis, um die Themen der zukünftigen Verfahrenstechnik zu vermitteln und zu gestalten. Input gab es reichlich an den beiden Tagen, vor allem für die Verknüpfung verschiedener Skalen bei der Prozesssimulation sowie hinsichtlich neuer Methoden für die Prozessoptimierung. So setzte der Workshop einen deutlichen Akzent und entfachte Aufbruchstimmung. Allen Beteiligten war am Ende klar, dass sie Mitgestalter eines Wandels mit erheblichen Chancen für Wirtschaft, Mensch und Gesellschaft sind.

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 45502146)