Smart Process Manufacturing Kongress Steckt die Prozessindustrie in der Kompetenzfalle?

Autor / Redakteur: Hans-Jürgen Bittermann / Anke Geipel-Kern

Vom Digitalen Zwilling, über die Data Analytics und die Predictive Maintenance bis hin zur Künstlichen Intelligenz – auf dem 3. Smart Process Manufacturing-Kongress von PROCESS wurden alle diese Themen über zwei Tage und zumeist anhand lösungsorientierter Best Practice-Beispiele intensiv diskutiert.

Anbieter zum Thema

Stecken wir in Deutschland – in Sachen Digitalisierung – in der Kompetenzfalle? Auf dem Smart Process Manufacturing-Kongress wurde mehr Mut und Risikobereitschaft eingefordert – Motto: Einfach machen, Fehler zulassen, keine Perfektion anstreben!
Stecken wir in Deutschland – in Sachen Digitalisierung – in der Kompetenzfalle? Auf dem Smart Process Manufacturing-Kongress wurde mehr Mut und Risikobereitschaft eingefordert – Motto: Einfach machen, Fehler zulassen, keine Perfektion anstreben!
(Bild: Phoenix Contact)

Die Prozessindustrie steht im Zuge der digitalen Transformation vor Innovations- und Effizienzsprüngen, die den Betriebsalltag geradezu revolutionieren. Manche Unternehmen stellen sogar ihr Geschäftsmodell komplett neu auf. Andere verweilen allerdings quasi noch bei Industrie 2.0...

Eine wichtige Erkenntnis nach zwei Tagen Erfahrungsaustausch auf dem Kongress: Die Werkzeuge der digitalen Transformation sind bereits vielfach bekannt und vorhanden. Sie werden offenbar zu wenig genutzt. Die große Unbekannte ist und bleibt der Mensch – fehlt das richtige Mindset, wird es schwer, die Potentiale der Digitalisierung auch wirklich alle zu realisieren.

Als Keynote-Speaker eröffnete Dr. Holger Schmidt (Ecodynamics) den Kongress mit der durchaus diskussionswürdigen These, dass Künstliche Intelligenz als Basistechnologie die Wettbewerbsfähigkeit in der Prozessindustrie verändere – wohlgemerkt: Nicht als Frage formuliert, sondern als Feststellung.

Verschwindet die Trennung zwischen B2B und B2C?

Effiziente, selbstlernende Produktionsverfahren seien dabei nur ein Teilaspekt - noch wichtiger sind für ihn neue datengetriebene Geschäftsmodelle, die er als wesentlich für den Erhalt oder Ausbau der Wettbewerbsfähigkeit ansieht: „Es geht hier nicht um Plattform-Unternehmen, sondern um geschlossene Prozessketten zwischen Kunden, Lieferanten und Herstellern. Die Trennung zwischen B2B oder B2C wird schon bald aufgehoben.“

Was Unternehmen auszeichne, die KI für solche Prozessketten einsetzen? Die denken nicht an die Produktion, sie denken vom anderen Ende her – aus Sicht und hinsichtlich des Bedarfs des Kunden. Beispiel: Eine digitale Farming-Plattform, um Aussaat und Einsatz von Pflanzenschutzmitteln mit Hilfe von Daten (Wetter, Bodenqualität...) besser vorhersagen zu können.

Auch beim Thema KI gelte: Deutschland falle es schwer, F&E-Ergebnisse zu monetarisieren (“KI auf die Straße bringen...“). Schmidt fordert vehement eine größere Risikobereitschaft. Nach seiner Einschätzung haben 1/3 der Unternehmen der Prozessindustrie noch keinen Plan, wie mit KI umzugehen sei.

Holger Schmidt: „Wir sind nicht schlecht, aber vielfach zu vorsichtig!“ Warum das so ist, dafür hat er eine durchaus plausibel klingende Erklärung: “Wir stecken in Deutschland in der Kompetenzfalle – wir waren über Jahrzehnte der Industrie-Primus, jetzt fällt es uns schwer zu akzeptieren, dass andere Länder bei der KI weiter und erfolgreicher sind!“

Digital Enterprise: Engineering & Operations

Dr. Hartmut Klocker (Vice President Automation & Engineering Systems, Siemens) führte das Auditorium zurück in den Produktionsalltag. Eindringlich forderte er dazu auf, die Potentiale einer digitalen Prozessindustrie weiter zu denken - sowohl in neuen als auch in bestehenden Anlagen. Dazu sei die vollständige Datenkonsistenz eine wesentliche Voraussetzung.

Darüber hinaus brauche es Tools, um Teams an verschiedenen Standorten zusammenzuführen (Global Collaboration). Man muss dazu heute keine Software auf dem eigenen System mehr aufspielen; der Zugriff über eine Web-basierte Cloud ist Stand der Technik. Wichtig sei, dass das Planungs-Tool Multiuser-fähig sei.

Die Erwartungen an Integrated Engineering Systeme in der chemischen Prozessindustrie sind hoch – die Herausforderungen ebenfalls. Ziel ist es, alle Daten und Informationen im aktuellen As-built-Status den Projektbeteiligten zur Verfügung zu stellen. Die Aktualität und Durchgängigkeit der Informationen soll zu jedem Zeitpunkt gewährleistet sein, Fehlentscheidungen sollen vermieden und Kosten sowie Zeit für Engineering- und Instandhaltungsmaßnahmen gesenkt werden.

Changemanagement bei Covestro

Auch bei Covestro geht es um die Frage der Fragen bei der Digitalisierung: Wie bekommen wir alle Daten in eine standardisierte Form, wie verknüpfen wir die unterschiedlichen Engineering-Tools miteinander? Dr. Hans-Jürgen Weber (Program Manager Digitalization Production and Technology) präsentierte das iPEP-Konzept: Dabei geht es im Grundsatz darum, vom Dokumenten-Management zum Informations- und Daten-Management zu gelangen.

Das gilt insbesondere für die Übergabe des Engineerings an die Operations. Covestro arbeitet dazu mit Hexagon Smart Plant. Alle aktuellen Daten werden in einer Cloud abgelegt – das ist bei einem global aufgestellten Unternehmen keineswegs trivial (da finden sich neue Anlagen ebenso wie historische Anlagen, es gibt unterschiedliche Anforderungen der Normen und der Gesetzgebung). Ein in der Tat großes Change-Management-Projekt.

Druckanzeige als [bar] oder [barA] oder [barÜ]?

Seit mehreren Jahren treibt Infraserv Gendorf die Entwicklung und den Einsatz einer Planungsarchitektur mit intelligenten Planungswerkzeugen voran. Allein in den letzten beiden Jahren wurden dafür hohe Investitionen getätigt. Die Herausforderung bei diesem Projekt beschreibt Dr. Mickael Planasch (Leiter Engineering) mit diesen Zahlen: Im Unternehmen zählt er 127 einzelne Softwareprodukte aus elf Tool-Familien (mit mehr als 400.000 Euro Fixkosten pro Jahr). Dass die Standardisierung aller Tools nicht trivial ist, kann man leicht nachvollziehen.

Nach seiner Erfahrung sind es die vielen kleinen Anpassungen, die bei der Standardisierung Zeit kosten (wie wird der Druck angezeigt? In bar oder barA oder barÜ?). „Das muss am Anfang der Standardisierung passieren. Und das Mindset, wie man plant, ist zu ändern.“ Seine Empfehlung lautet schlicht und ergreifend: Man sollte die Erwartungshaltung an eine integrierte Engineering-Lösung ganz einfach am Anfang reduzieren (insbesondere was die Digitalisierung im Bestand betrifft…).

Michael Wiedau (Evonik) und Reda Mostafa (PTC) referierten den Stand der Dinge bei DEXPI (Data Exchange in the Process Industry). DEXPI ist der Versuch, die babylonische Sprachverwirrung bei den Schnittstellen unterschiedlicher Planungstools zu standardisieren. Beim Thema P&ID sei man schon sehr weit, betonen die Referenten. Für neue Anwender sei DEXPI heute schon interessant. Aber: Für den EPC-Kontraktor ist das noch ein weiter Weg. Und bei Evonik gebe es wegen der gewachsenen historischen Systeme eine Menge aufzuräumen.

Ist die Vision, alle Daten in einem gemeinsamen Datenmodell zu versammeln ein Traum? Zumindest ist es noch keine Realität. Aufgabe ist es nicht allein, Daten auf einheitlichen Standards generieren zu können. Zudem müssen Daten anwendungs- und user-spezifisch zugeordnet werden: der Servicetechniker braucht andere Informationen als der Betriebsingenieur oder der Automatisierer.

Chemondis: Ein Marktplatz der Chemie

Benedikt Efker (Head of Digitalization Production & Assets, Lanxess) blieb in seinem Vortrag ebenfalls bei den praktischen Fragen – beispielsweise welche Prioritäten man in der Fülle von theoretischen Möglichkeiten setzen sollte. Auf jeden Fall gilt für ihn: Digitale Transformation ohne Anwendungsfall ist ohne Wert. Seine Hauptforderung an digitale Geschäftsmodelle ist die Skalierbarkeit verbunden mit der Qualifizierbarkeit des Nutzens.

Als Spezialitätenhersteller konzentriert sich Lanxess bei der Digitalisierung auf die Value Chain, hat mit der Engineering-Plattform Chemondis quasi einen Marktplatz für die gesamte chemische Industrie geschaffen (das eigene Unternehmen ist hier nur eines von vielen). Nach kurzer Zeit ist ein von vielen Anbietern wie Abnehmern gut genutzter Online-Marktplatz entstanden, auf dem chemische Produkte gehandelt werden. Hier sieht Efker ein großes Potenzial für KI – werde der Kundenwunsch früh erkannt, habe das Auswirkungen auf die F&E und die Produktion.

Übrigens: Big Data hilft in der Prozessindustrie am meisten bei der Prozessoptimierung, weniger bei der immer wieder beschriebenen Predictive Maintenance. Wenige Prozentpunkte bei der Produktivität können schnell Millionen Euro wert sein. In Sachen Instandhaltung sollte man eher diesen Aspekt in den Vordergrund stellen: Man generiert Uptime, es geht nicht darum, Downtime zu managen – das hört sich doch viel besser an: Der Instandhalter als Verfügbarkeitsverbesserer!

Data Analytics & Betreiberwissen: Ein guter Ansatz

Der Mensch kann gut analysieren und wissen speichern, KI kann sehr viele Daten auf Muster durchforsten. Kann man beide Fähigkeiten miteinander verbinden? Wichtig ist, dass der Algorithmus hinter der KI so sicher ist, dass der Betreiber vertrauen zu den Ergebnissen hat – denn Algorithmen sind ja im Grunde eine Blackbox, die ein Spezialist vermutlich durchschaut, aber sicher kein Anlagenfahrer...

Jean Pascal John (Digitalization & Technology Manager, Chemical Industry, Siemens) und Tobias Reichl (Technik / EMR-Ingenieur BU Industrial & Consumer Specialties, Clariant) präsentierten die Ergebnisse aus einem Co-Creation-Projekt am Beispiel der datengetriebenen Meldesystem- und Regelkreisanalyse.

Die Frage war: Wie ist die Performance des Alarmsystems und der Automatisierung? Welche leistungsmindernden Charakteristiken treten im Betrieb auf? Was sind die Ursachen und welche Optimierungen bringen am meisten?

Ergebnis: Das Projekt erbrachte Hinweise auf Anlagenverbesserungen wie beispielsweise optimierbare Regler. Weil das Projekt auf der Siemens-Plattform Mindsphere abgelegt war, sammelte Clariant darüber hinaus praktische Erfahrung mit dem Konzept ‘Tool as a service‘ über die Cloud – Clariant zeigt sich ausgesprochen zufrieden damit.

Daten für die Schadensanalyse

Was ‚Data Analytics‘ in der Schadensanalyse und Ausfallsfrüherkennung von Großmaschinen zu leisten vermag, das präsentierten Dr. Stefan Pauli, Senior Data Scientist, zusammen mit Herbert Andert, Head of EI&C (EMSR und Automation) bei VTU Engineering. Der Ausgangspunkt beim Kunden: Ein im Jahr 2006 in Betrieb genommener 5stufiger Verdichter fällt mehrfach aufgrund von Gleitringdichtungsschäden in der dritten Kompressorstufe aus. Schadenssumme pro Schaden im sechsstelligen Bereich.

Seit Inbetriebnahme wurden ca. 150 Datenpunkte gemessen; trotz mehrerer Analysen durch lokale Spezialisten, Group-Experts und Hersteller fanden sich keine Hinweise auf Entstehen des Fehlers, auch keine sichtbaren Abweichungen vor dem Fehler. Die VTU-Lösung: Implementierung eines speziellen Machine Learning-Algorithmus (‚Decision Tree-Algorithmus‘), der den Schaden eine Woche vorher meldet.

Dieser Algorithmus stellt selbständig die ‚richtigen‘ Fragen zur Problemlösung, nutzt nur die Daten, die zu den besten Ergebnissen führen – und erkennt sogar, welche Parameter relevant sind (im vorliegende Fall waren es Druck und Energie). Mit diesem Wissen konnte der Betreiber zusammen mit dem Kompressor-Hersteller die relevanten Maschinenparameter neu justieren.

Martin Bergmann (Bilfinger Digital Next) beschrieb diese interessante Form von Data Analytics – den virtuellen Qualitäts-Sensor. Virtuell bedeutet in diesem Zusammenhang eine abgesicherte Abschätzung von Daten. Basis sind natürlich weiterhin Messwerte aus der Auswertung analoger Sensoren. Der virtuelle Sensor zeigt, was vermutlich zwischen den Probenahmen passiert.

Das geschieht in einem iterativen Prozess. Bemerkenswert ist die Vorgehensweise dabei: ein Automatisierungs-Experte (Bilfinger) mit Branchen-Know-how ‚übersetzt‘ die Problemstellung für einen Data Scientist (ohne tief greifende Kenntnisse über die Branche) – der findet eine Lösung, sofern er die richtigen Parameter einsetzt.

Von der Idee zur Tat

Marco Colucci (Co-Leiter der Workgroup Prozessindustrie bei der Open Industry 4.0 Alliance) hat mit seinen Ausführungen sicher viele Teilnehmer zurück zur geerdeten Realität geholt: „Es gibt einige Pilotanwendungen in der Prozessindustrie, doch die gehobenen Mehrwerte sind häufig überschaubar und von einer flächendeckenden Nutzung sind viele Unternehmen weit entfernt!“ Kurz und ungut: Industrie 4.0 funktioniere noch nicht wirklich! Ein wichtiger Grund: Es existieren interessante Plattformen, es gibt Standards und Empfehlungen – aber sie werden schlicht und ergreifend nicht genutzt.

Vor diesem Hintergrund wurde die Open Industry 4.0 Alliance gegründet: Ein digitales Ökosystem marktführender Unternehmen, die sich der Entwicklung interoperabler Lösungen verschrieben haben. Die Allianz richtet sich an Industrieunternehmen, die einen Mehrwert für den Einsatz von Industrie 4.0 bieten. Zurzeit besteht die Alliance aus 38 Unternehmen. Vorteile für Anlagenbetreiber: Beschleunigte Umsetzung der digitalen Strategie; zuverlässige und skalierbare Lösungen; schnelle Ergebnisse mit vorkonfigurierten Edge to Cloud Apps & Integration. Vorteile für Hersteller: Erschließung neuer Geschäftsmodelle und Dienstleistungen; Entwicklung interoperabler Lösungsmodule mit anderen OEM; Integration in einer offenen Architektur-Plattform.

Die Philosophie der Open Alliance besteht im Grunde hauptsächlich im Willen, bestehende Standards so weit als möglich im eigenen Unternehmen umzusetzen. Colucci: „Der Unterschied zu anderen Initiativen und Kooperationen: Wir wollen Umsetzungen realisieren!“

It’s a Long Way to

Die Abschluss-Keynote übernahm Matthias Brey (Head of Smart Factory, Ernst & Young). Seine Einschätzung: Die Innovationsgeschwindigkeit digitaler Lösungen in und um die Smart Factory erhöhe sich derzeit exponentiell. Aber: Unsere Anlagen seien oft nicht in der Lage, digitale Lösungen technisch und operativ zu integrieren. Ein grundlegendes technisches Update wie auch vertikale und horizontale Integration der Vielzahl von digitalen Lösungen sieht er als Notwendigkeit. Die Chemie habe vielfach auch noch nicht den Reifegrad zwischen IT und den Operations erreicht. Der Druck fehle einfach …

Fazit: Es war wieder interessant und hoch spannend, den Vorträgen und vor allem auch den Diskussionen auf dem Smart Process Manufacturing-Kongress zu folgen. Dazu der Kommentar eines Teilnehmers: „Solche Veranstaltungen sind vor allem wichtig zur Einordnung der eigenen Position – wo stehen wir, wo stehen andere, welche Wege scheinen besonders erfolgreich zu sein.“ Eine für ihn offenbar wichtige Erkenntnis war, dass auch die anderen nur mit Wasser kochen.

Auch dies wurde zu Recht häufig thematisiert: Der Großteil der Unternehmen aus dem Maschinenbau und der Chemie in Deutschland zählt zum Mittelstand, der sich radikale Veränderungen oft finanziell, zeitlich und personell nicht erlauben kann. Für diese Unternehmen sind Tagungen und Kongresse wie Smart Process Manufacturing ein Muss-Event – hier erhalten sie Anregungen und Best Practice-Beispiele, nicht zuletzt profitieren sie durch wertvolle Kontakte. Vielleicht ist das sogar der beste Weg, aus der Kompetenzfalle zu entkommen?

Über Künstliche und ‚steindumme‘ Intelligenz und die Bedeutung von Domain-Wissen...

Wie viel Vertrauen verdienen Algorithmen und Künstliche Intelligenz? Der Soziologe Harald Welzer hat dazu kürzlich in einem Beitrag für ‚Die Zeit‘ einen lesenswerten Beitrag geschrieben. Zitat daraus: „Wenn die Funktionen von immer mehr Systemen – der Energie- und Wasserversorgung, der Verkehrssteuerung, der Entsorgung, vieler Notfallsysteme – vom Funktionieren einer Software abhängig sind, die ihrerseits aber nur dann rechnet, wenn sie Strom hat, fällt im Versagensfall gleich ganz viel aus. Auch die so genannte Umgebungsintelligenz, die gerade installiert wird und etwa für die Navigation autonom fahrender Autos erforderlich ist, wird dann blitzartig steindumm.“

Das wissen natürlich auch die Verantwortlichen der Prozessindustrie – und haben deshalb beschlossen, KI-Systeme quasi einzuhausen: Auf dem SPM-Kongress war glasklar zu hören, dass Künstliche Intelligenz in der Prozessindustrie keine eigene Verantwortung bekommen werde. „Es wird immer der Mensch sein, der letztlich entscheidet!“

Ausnahmen seien allenfalls in Sekundärprozessen denkbar (wobei auch das hinterfragt werden muss – die Regelung und Kontrolle des Kühlwasserkreislaufs eines Reaktors ist sicher nicht ‚sekundär‘). „Künstliche Intelligenz hat beim Primärprozess allenfalls ein Vorschlagsrecht“, so ein Diskussionsteilnehmer.

Denn nach wie vor ist die korrekte Analyse von Daten ein Problem. Man müsse Domain-Wissen haben, müsse die ‚Pain Points‘ kennen, um aus Big Data saubere Smart Data zu machen, war zu hören. Domain-Wissen ist im Übrigen auch deshalb von Bedeutung, um die Verantwortung für den Prozess zu behalten, um nicht in Abhängigkeiten zu geraten – weder von Algorithmen noch von Dienstleistern.

(ID:46162419)