Smart Process Manufacturing-Kongress 2020 Digitalisierung: Mythen und Einsichten
Anbieter zum Thema
Welche Vorstellungen verknüpfen sich mit dem Begriff „Digitalisierung“, die man entkräften bzw. beseitigen sollte? Auf dem diesjährigen Smart Process Manufacturing-Kongress beschrieben Referenten eine ganze Reihe von Vorbehalten bzw. Mythen, die sie aber allesamt auf den Boden der Tatsachen zurückholen konnten. Tatsache bleibt: Digitalisierung ist kein Sprint, ist Marathon. Manchmal verbunden mit einem Hürdenlauf. Aber richtig angepackt immer nützlich.

Während die jüngere Generation der Digital Natives beim Thema „Künstliche Intelligenz“ wohl vor allem an wissensbasierte Systeme wie IBM Watson oder an Google und Chatbots denkt, sind die Älteren vermutlich eher vom Kult-Film „2001: Odyssee im Weltraum“ geprägt, wo der Supercomputer HAL (Heuristically programmed algorithmic computer) der Star des Films ist. Er entwickelt ein unberechenbares Eigenleben, wird zunehmend zur Bedrohung für die Besatzung. Wer den Film kennt, hat womöglich tief verankerte Vorbehalte gegen KI ...
Der Smart Process Manufacturing-Kongress 2020 stand unter dem Motto „Die Digitalisierung entmystifizieren“ und bewegte sich damit zwischen den beiden Extremen in dieser Sache: Den optimistisch-euphorischen Verheißungen der Propagandisten der digitalen Transformation und den Vorbehalten mancher Praktiker gegenüber nicht immer nachvollziehbaren Black-box-Modellen. Vor allem stand diese Frage im Mittelpunkt: Wie geht man am besten vor, wie vereint man die digitale mit der realen Welt?
Der Kongress trat dafür erstmals und quasi programmatisch in einem rein digitalen Format an. Um einen Technik-Punkt gleich aufzugreifen: Die zum Teil holprige Umsetzung offenbarte mehr als jedes Whitepaper, mehr als jeder Vortrag zum Thema „Digitalisierung“, wie wichtig die immer wieder vorgebrachten zentralen Forderungen hinsichtlich Schnittstellen-Standards und Daten-Konnektivität sind.
Change - aber wie?
Inhaltlich überraschte, wie sehr doch mittlerweile die Einsicht zunehmend Gewicht erhält, dass der Erfolg der digitalen Transformation vor allem eine Sache des Mindsets der beteiligten Mitarbeiter sei. Aufgeräumt wurde mit einem besonders hartnäckigen Mythos – dass die Digitalisierung aus Gründen der Kosten und der personellen Kapazitäten nur bei den großen Konzernen realisierbar sei. Das gelingt durchaus auch bei kleinen und mittleren Unternehmen, wie mehrere Referenten zeigten.
Über die grundsätzliche Crux beim Thema Veränderung und Digitalisierung („Jeder will Veränderungen, aber niemand will sich verändern!“) ging Ilja Grzeskowitz in seiner Opening-Keynote ein („Einfach machen – Wie Sie die Chance der Veränderung erkennen und nutzen“). Die Quintessenz seines Vortrags: Die persönliche Veränderungskompetenz jedes einzelnen sei entscheidend. Veränderung müsse als Lust begriffen werden, nicht als Frust. Sein Rat: Man müsse sich auf solche Dinge konzentrieren, die man tatsächlich persönlich beeinflussen und damit verändern könne. „Der perfekte Moment für Veränderungsprozesse wird niemals kommen – darauf sollte niemand warten, es geht darum einfach zu starten!“
Ist-Zustand: Wo steht die Prozessindustrie?
Der Hype um die digitale Transformation ruft natürlich auch den einen oder anderen Trittbrettfahrer auf den Plan. Denn nicht alles, was heute mit der Chiffre „4.0“ etikettiert wird, ist tatsächlich neu. Insbesondere gilt das für das elektronische Sammeln von Daten zur Analyse und Optimierung von technischem Equipment.
Gerade in der Prozessindustrie ist der Grad der Mess-, Regel- und Automatisierungstechnik schon seit Jahren sehr hoch; ohne die rechnergestützte Produktion wäre ein chemischer Produktionsstandort bereits heute nicht mehr denkbar. Die „digitale Anlage“ spielt im gesamten Lebenszyklus eines Betriebs der Prozessindustrie eine wichtige Rolle.
Aber keine Frage: Die Fertigungsindustrie mit ihren diskreten Produktionseinheiten ist gegenüber der Prozessindustrie (kontinuierliche oder batchorientierte Stoffumwandlungen) deutlich weiter in Sachen digitaler Transformation.
Modularisierung als Antwort
Was die Digitalisierung in der Prozessindustrie vorantreibt sind neue Anforderungen – beispielsweise kleinere Chargen und individuellere Produkte bei gleichzeitig kürzeren Produktlebenszyklen. Eine Möglichkeit, um diesen Anforderungen gerecht zu werden, wird in der Modularisierung von Prozessanlagen gesehen (MTP: Module Type Package), bestätigt u.a. Rebecca Vangenechten (Siemens). Mit der Modularisierung der Produktion sei es möglich, sich auf die Rezeptur zu konzentrieren und nicht auf die dafür notwendige Anlagen- und Maschinentechnik.
Das sei in Zeiten häufiger und immer rascherer Produktwechsel wegen neuer Markterwartungen ein besonderer Vorteil der Modularisierung. Das sieht auch Dr. Attila Michael Bilgic (Krohne) so – problematisch bei der Umsetzung solcher neuen Konzepte sei natürlich, dass Anlagen der Prozessindustrie deutlich länger in Betrieb sind als z.B. eine Fertigung von Smartphones oder eines Fahrzeugs.
Vangenechten trug insbesondere vor, wie der digitale Zwilling das „Digital Enterprise“ voranzutreiben vermag – beispielsweise durch die Möglichkeit einer Reduktion physikalischer Experimente und damit einer Beschleunigung der Markteinführungszeit neuer Produkte. Atos und Siemens haben sich dazu mit Blick auf die pharmazeutische Industrie zusammengeschlossen. Ergebnis: reduzierte Entwicklungszeiten für Biopharmazeutika.
Zu bedenken sei, dass der virtuelle Zwilling nicht nur als Produkt-Zwilling anzusehen ist; er kann auch als Anlagen-Zwilling und Prozess-Zwilling auftreten. Der klare Vorteil dabei: Jeglicher Zwilling ermögliche eine Reduktion der physikalischen und analogen Simulationen und Experimente mit dem Vorteil der Kosteneinsparung.
Nutzen des Digitalen Zwillings
Auch Frank Schöggl und Michael Strack (beide Yncoris) beschäftigen sich intensiv mit dem digitalen Zwilling – vorgestellt wurde der Produktions-Zwilling eines Kühlturms. Kundennutzen ist dabei die Vorhersage der Kühlwasser-Vorlauftemperatur. Letztlich ist das Ergebnis eine optimierte periodische Betriebsstrategie – eine Minimierung des Energiebedarfes unter Berücksichtigung einer zulässigen Schwankungsbreite und einer zugesicherten Mitteltemperatur des Kühlwasservorlaufs. Der interne Kunde sei sehr zufrieden mit diesem Modell.
Im Rahmen eines „World Cafe“ thematisierten die beiden Referenten die Stör- und Erfolgsfaktoren bei der digitalen Transformation eines Unternehmens. Das wichtigste sei in der Tat, alle Beteiligten vom Arbeiter bis hin zur Führungskraft, von Anfang an mitzunehmen. Wenn es einen Betriebsrat gibt, auch diesen einbinden. Dann ist es von großer Bedeutung, mit kleinen Schritten anzufangen – auch hier, um alle Menschen mitnehmen zu können. Die gefährlichste Form des Widerstandes seien Ja-Sager, die anschließend im Projekt gegenarbeiten. Selbst das Wording könne entscheidend sein, so die Referenten: Die Aussage „KI vermeidet einen Kompressoren-Ausfall“ sollte man ändern in die Aussage „KI hilft dem Menschen dabei, einen Kompressoren-Ausfall zu verhindern“.
Dr. Wilhelm Otten (Evonik) referierte als Mitglied des Namur-Vorstands – sein Hauptanliegen waren die Bedeutung von Harmonisierung und Standardisierung. Das vermeide unnötige Komplexität und neue Technologien können effizienter eingesetzt werden, um die Ende-zu-Ende-Automatisierung der Wertschöpfungsketten zu erzielen.
Ist-Zustand: Wo stehen die Maschinen- und Anlagenbauer?
Prof. Dr.-Ing. Gerrit Sames (Technische Hochschule Mittelhessen) thematisierte eine Studie zum Thema „Digitalisierung im Mittelstand“. Sames zog eine eher ernüchternde Bilanz: Der Mittelstand verharre in Tradition – Chancen durch Digitalisierung der Geschäftsmodelle seien noch weitgehend ungenutzt.
Der starke Produkt-Fokus insbesondere der Maschinen- und Anlagenbauer, der den auch internationalen Erfolg der Vergangenheit begründete, drohe nun zum Nachteil zu werden. Es sei offenkundig, dass die Möglichkeiten der Geschäftsmodell-Erweiterung durch Digitalisierung noch in den Anfängen stecke. Denn während die Produkteigenschaften an Bedeutung verlieren, werden neue Geschäftsmodelle in den Services an Bedeutung gewinnen – in Zukunft erwarte man eine Verteilung von 40 zu 40.
Es sei zu beobachten, dass die Kunden den Standard-Produkteigenschaften immer weniger Bedeutung zumessen, weil diese selten ihren Bedürfnissen gerecht werden – hier sollte die Digitalisierung flexible Produkteigenschaften ermöglichen. Das sei aber im deutschen Mittelstand noch immer eher die Ausnahme. Selbst eine digitale Unterstützung beim Bestellvorgang sei keine Regel. Angebote rund um das Condition Monitoring oder gar Predictive Monitoring? Auch selten. Kein Wunder, dass 75 % der Unternehmen keine digitalen Schulungen oder Webinare im Angebot haben. Und Dinge wie „Pay per Use“ finden praktisch nicht statt.
Kurz: Der ermittelte Digitalisierungsgrad für den Mittelstand gebe absolut keinen Grund zur Euphorie. (Anmerkung: Die Umfrage zeigt den Stand der Dinge in 2018; aber die wesentlichen Größenordnungen dürften sich kaum geändert haben.)
Tipp: Gerade haben der VDMA, die TU München und das Fraunhofer-IGCV einen Leitfaden für Mittelständler zur Einführung von Künstlicher Intelligenz (KI) vorgelegt.
Was muss sich ändern?
Dr. Attila Michael Bilgic (Krohne) nahm sich der Frage der Fragen an: Wie kann man die Flut an Daten so komprimieren, dass sie handelbar sind und zu Wissen werden? Er präsentierte dazu sehr praktische Antworten – beispielsweise sollte man unbedingt darauf verzichten, Daten immer wieder in neue Formate zu konvertieren – denn dabei bestehe stets die Gefahr, dass wichtige Informationen verloren gehen. Insbesondere der ständige Wechsel zwischen digitalen Signalen und deren Umwandlung in analoge Signale könne schädlich sein. Das könne man mit dem Einsatz von Ethernet APL verhindern (eine Kommunikationstechnologie, die speziell für die Anforderungen der Prozessindustrie entwickelt wurde).
Ein weiterer wichtiger Schritt ist es, dem jeweiligen Experten nur solche Daten zu kommunizieren, die für ihn und für seine Aufgabe relevant sind (Kontext-Betrachtungsweise).
Nicht zuletzt sollten wir uns bewusst machen, dass eine Maschine manche Dinge eben doch besser kann als der Mensch. Wir sollten akzeptieren, dass die Leistungsfähigkeit eines Computers heute durchaus höher ist als die eines Menschen. Ein weiterer Punkt: Man sollte sich fokussieren und möglichst lokal agieren. Die Philosophie von der zentralen Steuerung solle man verlassen und eher den Aspekt der lokalen Intelligenz stärken.
Wichtige Säulen: Akzeptanz und Qualifizierung
Es kann nicht jeder alles verstehen – deshalb muss die Kommunikation besser und die Technik einfacher werden. Robert Tordy (Virtual Fort Knox AG) und Uwe Beyer (Beyer & Kaulich Unternehmensberatung) bekräftigten: Auch nach der Installation neuer digitaler Technologien sei der laufende Betrieb maßgeblich von der Mitarbeiterakzeptanz und Mitarbeiterqualifizierung abhängig. Ganz wichtig sei dabei ein „Übersetzer“, beispielsweise zwischen der Praxissprache des Betriebsmitarbeiters und der Fachsprache des Geschäftsführers. Diese Übersetzungsarbeit führe zu besseren Ergebnissen, zur nachhaltigen Wertschöpfung.
Im Rahmen eines „World Cafe“ thematisierten die beiden Referenten die Stör- und Erfolgsfaktoren bei der digitalen Transformation eines Unternehmens. Das wichtigste sei in der Tat, alle Beteiligten vom Arbeiter bis hin zur Führungskraft, von Anfang an mitzunehmen. Wenn es einen Betriebsrat gibt, auch diesen einbinden. Dann ist es von großer Bedeutung, mit kleinen Schritten anzufangen – auch hier, um alle Menschen mitnehmen zu können. Die gefährlichste Form des Widerstandes seien Ja-Sager, die anschließend im Projekt gegenarbeiten.
Selbst das Wording könne entscheidend sein, so die Referenten: Die Aussage „KI vermeidet einen Kompressoren-Ausfall“ sollte man ändern in die Aussage „KI hilft dem Menschen dabei, einen Kompressoren-Ausfall zu verhindern“.
Typischer Baustein eines „World Cafes“ sind auch Fragen/Antworten aus dem Teilnehmerkreis. Eine Auswahl:
- Frage: Was ist zu tun bei der Digitalisierung älterer Maschinen mit ebenso alten Schnittstellen?
Antwort: Eine Lösung sei der Einsatz geeigneter Schnittstellen-Konverter bzw. die Integration entsprechender neuer Sensoren. Auch bei Osram im Werk Schwabmünchen war es eine gewisse Herausforderung, Maschinen aus den 1960er Jahren – noch mit einem Schütz ausgerüstet – in die Digitalisierungsreise einzubinden. Es geht kein Weg daran vorbei, solche Technik mit moderner SPS-Technik nachzurüsten, so der Referent Ingo Held.
- Frage: Wir sind erst am Anfang, uns mit Digitalisierung zu beschäftigen; wir betreiben Anlagen mit PLS und besitzen auch ein Warenwirtschaftssystem, aber getrennt voneinander. Wie sollte der nächste Schritt aussehen?
Antwort: Für die Produktionsplanung wäre eine Schnittstelle wichtig, um Echtzeit-Produktionsdaten (Maschinenbelegung) mit Aufträgen zu kombinieren/zu betrachten/abzustimmen.
- Frage: Welche Rolle spielt Namur Open Architecture in der Praxis?
Antwort: Für die reine Produktion (Austausch von Produktions- bzw. Maschinendaten) sei diese eher nicht geeignet.
- Frage: Kann man Ergebnisse aus der Cloud (Dashboard) zur Steuerung der Produktionsanlage zurückfahren?
Antwort: Echtzeit ist dann natürlich ein Problem, das leistet die Cloud nicht.
Wo zeigt sich der Nutzen?
Ingo Hild (Osram) zeigte mit seinem Beitrag „Lean und Digital“, welche Bausteine und welche Vorgehensweise Unternehmen in Sachen Digitalisierung schnell voranbringen. Im Osram-Pilotwerk in Schwabmünchen werden überwiegend Vorprodukte wie Leuchtstoffe, Glühdrähte und metallische Gehäuse produziert. Insgesamt sind das nahezu 3000 Vorprodukte, die in praktisch allen Produkten von Osram verbaut sind. Als Herausforderung beschreibt Hild die immer kürzeren Produktlebenszeiten – während die Glühlampe über Jahrzehnte hinweg immer weiter entwickelt wurde, sind heute in immer kürzeren Zeitabständen immer neue Systemlösungen gefragt. Diese Notwendigkeit zu Veränderungen habe im Unternehmen auch die Digitalisierung vorangetrieben.
Für Hild ist dazu das Lean Management die absolut wichtige Basis: „Erst die Prozesse effizient gestalten, dann die Digitalisierung aufsetzen!“ Die Philosophie dabei: Smart Factory ist zu 70 % Mindset der Mitarbeiter.
Hild schildert weiter, dass bei der Digitalisierung die Menge an verfügbaren Daten quasi explodiert sei. Deshalb wurde das Thema Data Analytics sehr wichtig – es sei die Basis, um neue Korrelationen zu finden, um Prozesse zu verbessern: „Es sind immer wieder neue iterative Zyklen dafür notwendig, die durch ein interdisziplinäres Team analysiert werden.“ 5G schafft dazu eine horizontale Verbindung und ermöglicht den Datenaustausch in Echtzeit.
Jede Reise beginnt mit dem ersten Schritt
Auch hier deutet der Referent darauf hin, dass der Start mit kleineren Projekten absolut erfolgsversprechend ist. Und bei der digitalen Reise dürfe man nicht voraussetzen, dass alle Mitarbeiter immer auch auf einem Level sind, die moderne Technologie zu verstehen. Ansonsten merkte Hild an, das „D“ im Begriff Digitalisierung stehe für „Do it“. Aber man vermeide tunlichst das oft übliche Over-Engineering …
Datenbasierte Entscheidungen sind die Grundlage für viele erfolgreiche Digitalisierungsinitiativen in der Prozessindustrie. Frank Hertling (Bilfinger Digital Next) beschrieb, wie Unternehmen die „Digitale Operational Excellence“ erreichen – trotz aller Einschränkungen in einer Vuca-Welt [Vuca: V = Volatil (Volatility) / U = Ungewiss (Uncertainty) / C = Komplex (Complexity) / A = Mehrdeutig (Ambiguity)]. Wie mit all diesen raschen Veränderungen leben? Das funktioniere vermutlich nur durch mehr Clarity: Also den Fokus schärfen, Prozesse und Zusammenhänge klar kommunizieren.
Bisher haben die Mitarbeiter eines Unternehmens von ihrer Domain Expertise gut gelebt; nun müsse die Data Expertise (die Analytics) hinzukommen. Darüber hinaus sei eine skalierbare IT-Infrastruktur immer wichtiger, um auf Veränderungen jeglicher Art rascher reagieren zu können. Nicht zuletzt sei ein gelebtes Wissensmanagement von hoher Bedeutung: „Wissen muss geteilt werden!“
Was ist, wenn Daten aus verschiedenen Quellen stammen?
Oft bleibt es schwierig, die richtigen Daten aus verschiedenen Quellen zusammenzuführen und mit der richtigen Fachkompetenz und Überwachungs-, Warn- und Analysetools in tatsächlich wertvolle Informationen umzuwandeln. Hertling beschrieb anhand konkreter Beispiele, wie er mit seinem Team beeindruckende Lösungen fand.
Eine Aufgabe lautete: Wie können wir die Produktionszeit eines Mischprozesses verkürzen, ohne eine neue Schicht einzuführen (Produktivitätssteigerung bei konstanter Produktqualität). Ergebnis der Datenanalyse waren eine 10 % höhere Produktivität. Bei einem anderen Unternehmen, das seine Technik praktisch permanent in Überlast gefahren hat, konnte durch eine Analyse der Ausfallursachen erreicht werden, dass 90 % der zu erwartenden Ausfälle etwa zehn Minuten vorher dem Personal angekündigt werden konnten (die konnten die Technik rechtzeitig herunterfallen).
Monitoring neu gedacht
Dulaan Punsag-Odefey (Samson) befasste sich mit dem Nutzen eines erweiterten Monitorings – Sam Guard überwacht nicht eine einzelne Pumpe oder einen einzelnen Wärmetauscher, das System hat die komplette Anlage im Blick. Dieses „Analytical Monitoring“ beschreibt die Fähigkeit, alle Prozesse und Geräte in einer Anlage einem Monitoring zu unterwerfen. Charakteristisch für diese Art des Monitorings ist es, nicht auf Grenzwerte zu achten, sondern viel früher Veränderungen in Richtung von Grenzwerten zu überwachen. Interessant können in diesem Zusammenhang auch beispielsweise zwei unterschiedliche Vibrationswerte an zwei unterschiedlichen Messstellen sein, wobei keine einzige Messstelle den Grenzwert erreicht hat – aber die Korrelation zwischen beiden Werten könnte eine Abweichung anzeigen. Sam Guard verbinde Künstliche Intelligenz mit menschlichem Erfahrungswissen, so die Referentin.
KI ist mehr als Vorhersage von Fehlern
Dr. Claus Neubauer und Ralph Grothmann (beide Siemens) beschrieben den Stand der Dinge in Sachen „Kl in der Industrie“. Demnach sei es nicht allein von Bedeutung, Fehler zu erkennen oder Ausfälle vorauszusagen; es müsse stets auch eine Handlungsempfehlung damit verbunden sein – auch wenn damit eine gewisse Unsicherheit verbunden ist. Als neuere Entwicklung beschrieben sie die so genannte Kontextualisierung, also das Zusammenbringen von Prozess-Daten mit anderen Daten aus der Umgebung des Prozesses.
Ein interessanter Ansatz ist auch die Einbindung visueller optischer Qualitätsdaten in die digitale Transformation (interessant beispielsweise für die Qualifizierung von Nahrungsmitteln, Obst usw.). Ausgangspunkt solcher Analysen ist natürlich immer Bildmaterial, das über entsprechende Kameras generiert wird.
Fazit: Der rein digitale Kongress 2020 bot vergleichbar zum Vorjahr eine Fülle von Anregungen und Best Practice-Beispielen. Im Grunde machten alle Referenten auch den kleinen und mittelständischen Unternehmen Mut, in die digitale Transformation einzusteigen – just do it, so der Rat. Eine zentrale Botschaft dazu lautete: Der wichtigste Erfolgsfaktor für die digitale Transformation ist nicht das Werkzeug oder die Software, es sind die Menschen und deren richtiger Mindset.
Apropos Menschen: Schmerzlich vermisst wurden bei diesem digitalen Kongress die Diskussionen nach den Vorträgen und in den Pausen – oft nur so dahingesprochen (oder dahingeschrieben), bewahrheitet sich in diesen Zeiten, wie unglaublich wichtig die persönliche Begegnung ist.
* Der Autor ist freier Redakteur bei PROCESS
(ID:46974600)