Maschinelles Lernen Keine Angst vor Künstlicher Intelligenz: KI ist, wenn man’s trotzdem macht

Ein Gastbeitrag von Wolfgang Köck, Head of MES & Data Analytics und Dr. Stefan Pauli, Data Scientist, VTU Engineering

Anbieter zum Thema

Immer noch zögern Chemieunternehmen, KI-Projekte aufzusetzen. Hohe Investitionskosten, großer Aufwand und fehlende Erfahrung – das sind die größten Hindernisse. Wie KI-Projekte mit einer „Politik" der kleinen Schritte zum Erfolg werden, zeigen Beispiele aus der Praxis.

Einfach machen heißt die Devise bei KI-Projekten
Einfach machen heißt die Devise bei KI-Projekten
(Bild: © besjunior - stock.adobe.com)

Lediglich 14 Prozent der Chemie- und Pharmaunternehmen setzen Künstliche Intelligenz (KI) bzw. Maschinelles Lernen ein – das ergibt die aktuelle Bitcom-Studie „Deutschland lernt KI“, die der Verband 2020 durchgeführt hat. Als größte Hindernisse nannten die befragten Firmen in der aktuellen Bitcom-Studie hohe Investitionskosten (59 Prozent), Anforderungen an Datenschutz (50 Prozent) und -sicherheit (46 Prozent) sowie fehlende Anwendungsbeispiele (45 Prozent). Zur behutsamen Annäherung an das innovative Teilgebiet der Informatik propagiert das internationale Technologieunternehmen VTU bei Data-Science-Projekten ein schrittweises Vorgehen. Wie sieht ein solcher erster Schritt aus? Was könnte ein erstes geeignetes KI-Projekt sein? Zum besseren Verständnis und zur Einordnung werden hier zwei Data-Science-Projekte aus der VTU-Praxis vorgestellt.

In kleinen Schritten zum ersten KI-Projekt

Neuronale Netze, Machine-Learning, Deep Learning, KI – wo ist eigentlich der Unterschied?

Pauli: Eine Klärung dieser Begriffe ist sicher hilfreich, da sie zwar in einem Kontext zueinanderstehen, aber nicht dasselbe bezeichnen. Für den Oberbegriff der Künstlichen Intelligenz (KI), oder auf Englisch Artificial Intelligence (AI), ist die Definition von Elaine Rich aus dem Jahr 1983 passend: „Artificial Intelligence is the study of how to make computers do things at which, at the moment, people are better“. Also KI bezeichnet im allgemeinen Maschinen, welche künstlich die menschliche Intelligenz teilweise nachbilden, sich also teilweise intelligent verhalten. Nun gibt es viele verschiedene Technologien für Künstliche Intelligenz. Eine davon sind die Maschine-Learning-Algorithmen, welche selbstständig aus gesammelten Daten lernen. Von diesen Algorithmen gibt es einige einfachere, wie Lineare Regression oder Random Forest, aber es gibt auch sehr komplexe, wie die Neuronalen Netze. Neuronale Netze verbinden Neuronen (Nervenzellen) in einem Netz, ein bisschen angelehnt an ein menschliches Gehirn mit seinem Netzwerk aus Neuronen. Große Neuronale Netze werden dann als Deep Learning bezeichnet, welche ihre Fähigkeiten bei Bild-, Text- oder Sprachverarbeitung sehr gut ausspielen können, aber eine große Menge an Daten und Rechenleistung voraussetzen. So kommt man vom Oberbegriff Künstliche Intelligenz über mehrere Zwischenbegriffe wie Machine Learning zum Unterbegriff Deep Learning.

Laut einer aktuellen Bitcom-Studie nutzen bisher nur 14 Prozent der Chemie- und Pharmaunternehmen KI bzw. Machine-Learning-Werkzeuge. Woran liegt das?

Pauli: 14 Prozent der Chemie- und Pharmaunternehmen setzen bereits KI ein. Das klingt zwar nach sehr wenig, der Industrie-Durchschnitt in dieser Studie liegt jedoch bei 13 Prozent. Auch wurde in dieser Studie die Frage nach den größten Herausforderungen gestellt, welche Gründe für den seltenen Einsatz aufzeigen. Großunternehmen nannten hohe Investitionskosten (59 Prozent), Anforderungen an Datenschutz (50 Prozent) und -sicherheit (46 Prozent) sowie fehlende Anwendungsbeispiele (45 Prozent) als größte Herausforderungen. Dies stimmt gut mit unseren Erfahrungswerten überein. Mit einer angepassten Herangehensweise kann aber diesen Herausforderungen Rechnung getragen werden. So haben wir gute Erfahrungen gemacht mit einer schrittweisen Herangehensweise (siehe nächste Frage), um mit niedrigen Investitionskosten zu beginnen, welche erst später mit dem Erfolg wachsen. Konsequenter Schutz und Sicherheit der Daten „by design“ kann in der industriellen Fertigung die Stabilität von Prozessen sowie einen Schutz von Betriebsgeheimnissen und Know-how sicherstellen.

Gemäß unserer Erfahrung gibt es noch eine spezifische Herausforderung für die Chemie- und ganz speziell die Pharma-Branche – nämlich die strengen reglementarischen Auflagen und Prozesse. KI-Algorithmen müssen GxP-validiert werden. Hier kann ein kompetenter Partner unterstützen, der in beiden Welten umfassende Expertise besitzt, der GMP Compliance und Digitalisierung.

Von der Idee zum Business Case: Was ist bei der Umsetzung von KI-Projekten der entscheidende Erfolgsfaktor?

Pauli: Hier spielen mehrere Faktoren zusammen. Die nachfolgenden sind unserer Erfahrung nach die entscheidendsten:

Identifikation und Definition eines lohnenden und machbaren Projektziels: Bestimmte Dinge ändern sich auch nicht beim Einsatz von KI. Wie bei einem „normalen“ Projekt müssen die Projektziele (z. B. SMART) identifiziert, ausgearbeitet und definiert werden. Dies kann mitunter eine der schwierigsten und wichtigsten Aufgaben in einem KI-Projekt sein. Geführte Use-Case-Workshops haben sich hier bewährt.

Interdisziplinäres und erfahrenes Projektteam: Aufgrund der oftmals komplexen Prozesse in produzierenden Industrieunternehmen braucht es für die erfolgreiche Projektabwicklung ein interdisziplinäres Team. Dabei kommen neue Berufsbilder wie Data Scientists, Data Engineers aber auch klassische MES-Ingenieure zum Einsatz und natürlich erfahrene Techniker aus Engineering und Operations, welche die Vorgänge in der Produktion gut kennen. Wichtig ist, auf bestehendes Wissen zugreifen zu können, um der Künstlichen Intelligenz das Leben so einfach und erfolgreich wie möglich zu machen.

Schritt-für-Schritt-Herangehensweise: Wir erachten es als erfolgsfördernd, schrittweise die Projekte zu entwickeln, gemäß dem Motto: Klein beginnen, mit dem Erfolg wachsen. Dazu eignet sich, wie bei anderen Software-Entwicklungen, die Agile-Projekt-Methodik ideal.

Bildergalerie

Mit KI Gasdruck regulieren

Maschinelles Lernen kam bei einem Data-Science-Projekt zum Einsatz, in dem auf einfache Weise ein Prozess und dessen Nachhaltigkeit optimiert wurden. In einer Prozesseinheit musste der Gasdruck geregelt werden. Um den Überdruck zuverlässig zu verhindern, wurde ein Notablassventil eingebaut. Die KI-basierte Datenanalyse trug dazu bei, Maßnahmen zu definieren, mit denen das Öffnen des Notablassventils bestmöglich verhindert werden konnte. Das Öffnen des Notablassventils sollte vor allem aus wirtschaftlichen und ökologischen Gründen so gering wie möglich gehalten werden. Bei der Analyse wurden Produktionsdaten aus drei Jahren bereinigt, kombiniert und verwendet. Dabei wurden u.a. das Verhalten von Gasfluss, Gasdruck und Ventilregler kurz vor und nach dem Öffnen des Notablassventils untersucht. Mittels KI-Algorithmen (k-means) wurden automatisch drei typische Verhaltensweisen identifiziert und geclustert.

In enger Zusammenarbeit zwischen Data Scientists und Verfahrenstechnikern konnten die drei Ursachen des Gasüberdrucks identifiziert werden. Nach zehn Tagen Datenanalyse stand fest, welche Maßnahmen das Öffnen des Notablassventils um ein Vierfaches reduzieren. Auf diese Weise konnte nicht nur der Verlust von Prozessgasen stark vermindert werden, sondern gleichzeitig auch die Luftverschmutzung.

Optimierung einer Mischung

Ein weiteres Beispiel aus der VTU-Praxis beschäftigt sich mit einer Anlage, in der ein klar definiertes Mischverhältnis eingehalten werden muss – jeweils von einem teuren und einem günstigen Inhaltsstoff. Um den Mindestgehalt des teuren Stoffs jederzeit zu garantieren, wurde ein Prozent dieses Stoffs überdosiert, sodass die Dosis jederzeit über dem Mindestgehalt lag. Die Kosten für diese einprozentige Überdosierung summierten sich auf mehrere hunderttausend Euro pro Jahr. Mithilfe von Datenanalyse sollten die Schwankungen im Gehalt des teuren Stoffs reduziert und die Überdosierung minimiert werden.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Bei der Datenanalyse wurden die Produktions- sowie Labordaten eines ganzen Jahres bereinigt und zu einem Datenset kombiniert. Anschließend wurde damit ein Maschinenalgorithmus trainiert, welcher den Gehalt des teuren Stoffes vorhersagt. Darüber hinaus offenbarte dieser Algorithmus auch die Parameter, die für ihn besonders wichtig sind, um eine Vorhersage treffen zu können. Das kann sehr nützlich sein, wenn – wie in diesem Beispiel – etwa 100 unterschiedliche Parameter vorhanden sind. Dank der klassischen Visualisierung der wichtigsten Parameter konnten in Zusammenarbeit mit Prozesskennern des Betreibers neue Maßnahmen definiert werden, die zielgerichtet die Schwankungen im Stoffgehalt reduzieren und eine wesentlich kleinere Menge des teuren Stoffs für die Überdosierung benötigen. Letztlich wurden dadurch knapp 200.000 Euro pro Jahr an Ausgaben eingespart als Ergebnis von 20 Tagen Datenanalyse.

Schrittweises Vorgehen für einen schnellen Einstieg

Diese beiden Beispiele zeigen, dass KI-Algorithmen auch mit nur geringem Aufwand einen hohen Nutzen bringen können. Das schrittweise Vorgehen hatte den Vorteil, dass die größten Hindernisse umschifft werden können, da weder hohe Startinvestitionen noch komplexe Datenschutzvorkehrungen für die Offlineanalysen nötig waren und zusätzlich ein Anwendungsbeispiel in der eigenen Produktion entstanden ist.

Ein schrittweises Vorgehen hatte sich in Datenanalyse-Projekten also bewährt, wobei bei jedem Schritt auch die Ziele definiert sein müssen, ggf. unterstützt durch einen moderierten Workshop. Nach der Definition von klaren und messbaren Zielen wird ein interdisziplinäres Team zusammengestellt, je nach Anforderung mit Experten für Data Science, Data Engineering, Prozesswissen oder Datensicherheit. Optimalerweise erfolgt die Projektdurchführung agil, um dem explorativen Charakter der Projekte gerecht zu werden. Die Validierung der Algorithmen geschieht anschließend je nach Bedarf auch GxP-konform. Zum Abschluss werden die zuvor definierten messbaren Erfolgskriterien validiert, um den Projekterfolg für alle messbar auszuweisen.

Die Erfahrung zeigt, dass ein schrittweises Vorgehen bei allen Chemie- und Pharmaunternehmen, die KI oder maschinelles Lernen heute noch nicht nutzen, einen niederschwelligen Einstieg in KI-unterstützte Produktionen bietet. Daher ist zu erwarten, dass bald wesentlich mehr als 14 Prozent der Firmen diese zukunftsgerichtete Technologie erfolgbringend nutzen werden. n

(ID:48273203)