:quality(80)/p7i.vogel.de/wcms/f0/a2/f0a28336724e6b1b4e96ab85272ae3e0/0105407801.jpeg)
- News
- PharmaTEC
- Wasser/Abwasser
- Food & Beverage
- Automatisierung
- Anlagenbau
- Strömungstechnik
- Verfahrenstechnik
- Sicherheit
- Specials
- Beruf & Karriere
- Forschung & Entwicklung
- Management
- Fachbücher
- Energieeffizienz
- Rohstoffpreise
- Logistik & Verpackung
- Mediathek
- Meilensteine
- Best of Industry
- Zum Fachmedium SCHÜTTGUT
Maschinelles Lernen Keine Angst vor Künstlicher Intelligenz: KI ist, wenn man’s trotzdem macht
Anbieter zum Thema
Immer noch zögern Chemieunternehmen, KI-Projekte aufzusetzen. Hohe Investitionskosten, großer Aufwand und fehlende Erfahrung – das sind die größten Hindernisse. Wie KI-Projekte mit einer „Politik" der kleinen Schritte zum Erfolg werden, zeigen Beispiele aus der Praxis.

Lediglich 14 Prozent der Chemie- und Pharmaunternehmen setzen Künstliche Intelligenz (KI) bzw. Maschinelles Lernen ein – das ergibt die aktuelle Bitcom-Studie „Deutschland lernt KI“, die der Verband 2020 durchgeführt hat. Als größte Hindernisse nannten die befragten Firmen in der aktuellen Bitcom-Studie hohe Investitionskosten (59 Prozent), Anforderungen an Datenschutz (50 Prozent) und -sicherheit (46 Prozent) sowie fehlende Anwendungsbeispiele (45 Prozent). Zur behutsamen Annäherung an das innovative Teilgebiet der Informatik propagiert das internationale Technologieunternehmen VTU bei Data-Science-Projekten ein schrittweises Vorgehen. Wie sieht ein solcher erster Schritt aus? Was könnte ein erstes geeignetes KI-Projekt sein? Zum besseren Verständnis und zur Einordnung werden hier zwei Data-Science-Projekte aus der VTU-Praxis vorgestellt.
Mit KI Gasdruck regulieren
Maschinelles Lernen kam bei einem Data-Science-Projekt zum Einsatz, in dem auf einfache Weise ein Prozess und dessen Nachhaltigkeit optimiert wurden. In einer Prozesseinheit musste der Gasdruck geregelt werden. Um den Überdruck zuverlässig zu verhindern, wurde ein Notablassventil eingebaut. Die KI-basierte Datenanalyse trug dazu bei, Maßnahmen zu definieren, mit denen das Öffnen des Notablassventils bestmöglich verhindert werden konnte. Das Öffnen des Notablassventils sollte vor allem aus wirtschaftlichen und ökologischen Gründen so gering wie möglich gehalten werden. Bei der Analyse wurden Produktionsdaten aus drei Jahren bereinigt, kombiniert und verwendet. Dabei wurden u.a. das Verhalten von Gasfluss, Gasdruck und Ventilregler kurz vor und nach dem Öffnen des Notablassventils untersucht. Mittels KI-Algorithmen (k-means) wurden automatisch drei typische Verhaltensweisen identifiziert und geclustert.
In enger Zusammenarbeit zwischen Data Scientists und Verfahrenstechnikern konnten die drei Ursachen des Gasüberdrucks identifiziert werden. Nach zehn Tagen Datenanalyse stand fest, welche Maßnahmen das Öffnen des Notablassventils um ein Vierfaches reduzieren. Auf diese Weise konnte nicht nur der Verlust von Prozessgasen stark vermindert werden, sondern gleichzeitig auch die Luftverschmutzung.
Optimierung einer Mischung
Ein weiteres Beispiel aus der VTU-Praxis beschäftigt sich mit einer Anlage, in der ein klar definiertes Mischverhältnis eingehalten werden muss – jeweils von einem teuren und einem günstigen Inhaltsstoff. Um den Mindestgehalt des teuren Stoffs jederzeit zu garantieren, wurde ein Prozent dieses Stoffs überdosiert, sodass die Dosis jederzeit über dem Mindestgehalt lag. Die Kosten für diese einprozentige Überdosierung summierten sich auf mehrere hunderttausend Euro pro Jahr. Mithilfe von Datenanalyse sollten die Schwankungen im Gehalt des teuren Stoffs reduziert und die Überdosierung minimiert werden.
Bei der Datenanalyse wurden die Produktions- sowie Labordaten eines ganzen Jahres bereinigt und zu einem Datenset kombiniert. Anschließend wurde damit ein Maschinenalgorithmus trainiert, welcher den Gehalt des teuren Stoffes vorhersagt. Darüber hinaus offenbarte dieser Algorithmus auch die Parameter, die für ihn besonders wichtig sind, um eine Vorhersage treffen zu können. Das kann sehr nützlich sein, wenn – wie in diesem Beispiel – etwa 100 unterschiedliche Parameter vorhanden sind. Dank der klassischen Visualisierung der wichtigsten Parameter konnten in Zusammenarbeit mit Prozesskennern des Betreibers neue Maßnahmen definiert werden, die zielgerichtet die Schwankungen im Stoffgehalt reduzieren und eine wesentlich kleinere Menge des teuren Stoffs für die Überdosierung benötigen. Letztlich wurden dadurch knapp 200.000 Euro pro Jahr an Ausgaben eingespart als Ergebnis von 20 Tagen Datenanalyse.
Schrittweises Vorgehen für einen schnellen Einstieg
Diese beiden Beispiele zeigen, dass KI-Algorithmen auch mit nur geringem Aufwand einen hohen Nutzen bringen können. Das schrittweise Vorgehen hatte den Vorteil, dass die größten Hindernisse umschifft werden können, da weder hohe Startinvestitionen noch komplexe Datenschutzvorkehrungen für die Offlineanalysen nötig waren und zusätzlich ein Anwendungsbeispiel in der eigenen Produktion entstanden ist.
Ein schrittweises Vorgehen hatte sich in Datenanalyse-Projekten also bewährt, wobei bei jedem Schritt auch die Ziele definiert sein müssen, ggf. unterstützt durch einen moderierten Workshop. Nach der Definition von klaren und messbaren Zielen wird ein interdisziplinäres Team zusammengestellt, je nach Anforderung mit Experten für Data Science, Data Engineering, Prozesswissen oder Datensicherheit. Optimalerweise erfolgt die Projektdurchführung agil, um dem explorativen Charakter der Projekte gerecht zu werden. Die Validierung der Algorithmen geschieht anschließend je nach Bedarf auch GxP-konform. Zum Abschluss werden die zuvor definierten messbaren Erfolgskriterien validiert, um den Projekterfolg für alle messbar auszuweisen.
Die Erfahrung zeigt, dass ein schrittweises Vorgehen bei allen Chemie- und Pharmaunternehmen, die KI oder maschinelles Lernen heute noch nicht nutzen, einen niederschwelligen Einstieg in KI-unterstützte Produktionen bietet. Daher ist zu erwarten, dass bald wesentlich mehr als 14 Prozent der Firmen diese zukunftsgerichtete Technologie erfolgbringend nutzen werden. n
(ID:48273203)