IGR-Erfahrungsaustausch Alle Daten sind schon da: Warum es mit der Industrie 4.0 manchmal (trotzdem) länger dauert

Redakteur: Dominik Stephan

Wo bleibt der große Wurf in Sachen Industrie 4.0? Auf Spurensuche beim IGR-Erfahrungsaustausch – Vernetzung ohne Zusammenarbeit und Austausch ist nicht denkbar, deswegen stellt die Interessengemeinschaft Regelwerke (IGR) Digitalisierungsstrategien in den Mittelpunkt ihres diesjährigen Erfahrungsaustauschs. Dabei wird schnell klar, warum es nicht beim bloßen Datensammeln bleiben darf…

Firmen zum Thema

Die Testanlage am Standort Frankfurt-Höchst der Bilfinger Maintenance.
Die Testanlage am Standort Frankfurt-Höchst der Bilfinger Maintenance.
(Bild: Bilfinger)

Mörfelden – Das Konzept Industrie 4.0 nähert sich dem „verflixten siebten Jahr“ – und noch immer wartet die Branche auf den ganz großen Wurf. Seit der Premiere auf der Hannover-Messe 2011 suchen Prozessingenieure, Automatisierungsentwickler und IT-Spezialisten nach Wegen in die digitale Zukunft. Und die Zeit drängt: In weniger als zehn Jahren wird das Industrielle Internet der Dinge (IIoT) im großen Stil Einzug in die Produktionsprozesse halten, sagt einer der es wissen sollte.

Gunther Kegel, CEO beim Automatisierungsspezialisten Pepperl+Fuchs und Präsident des VDE (Verband der Elektrotechnik Elektronik und Informationstechnik), gibt der Branche nicht mehr viel Zeit: „Wer bis 2025 nicht digital transformiert hat, wird ernsthafte Wettbewerbsnachteile in Kauf nehmen müssen“, erklärte der Manager beim Erfahrungsaustausch der Interessengemeinschaft Regelwerke (IGR) in Mörfelden bei Frankfurt/Main.

Bildergalerie
Bildergalerie mit 8 Bildern

Vernetzung entscheidet eben nicht nur im digitalen Cyberspace: Damit es mit dem analogen Wissensnetzwerk klappt, setzt die IGR seit nunmehr zehn Jahren auf Wissens-Management und Betriebs-Know-How für die chemisch-pharmazeutische Industrie. In den späten Neunzigern im Umfeld der ehemaligen Höchst-AG entstanden, hat der Verband das erklärte Ziel, Betriebswissen über Unternehmensgrenzen hinweg zu bündeln, gemeinsame Standards zu entwickeln und technische Regelwerke über den gesamten Lebenszyklus der Anlagen zuverlässig und wirtschaftlich umzusetzen. Damit wollen die Verbandsmitglieder die Ingenieure aus ihrer fachlichen Vereinzelung in den unterschiedlichen Firmen holen und gemeinsam Schnittstellen-Themen besetzen.

Und da gibt es noch viel zu tun: „Zwar nutzen fast alle Unternehmen der chemisch-pharmazeutischen Industrie bereits eine automatisierte Datenerfassung, um ihre Produktqualität zu sichern“, sagt Thomas Grein, Vorstand der IGR und Leiter des Kompetenzcenters Elektro-, Mess- und Regeltechnik „jedoch ist die Digitalisierung in der Instandhaltung über proprietäre Lösungen meist noch nicht hinaus. Bis zur durchgängig vernetzten Produktion und Instandhaltung ist es ein weiter Weg.“

Betriebskompetenz und Transformationsprozesse stehen auch im Mittelpunkt des ersten Smart Process Manufacturing Kongress. Sichern Sie sich noch heute Ihr Ticket!

Dabei lässt sich z.B. die Integration von Sensortechnik weiter nutzen. Smarte Instandhaltungskonzepte, optimierte Prozesse, neue Geschäftsmodelle und mehr Ressourcen- und Kosteneffizienz seien nur einige Beispiele der Verbandsarbeit, so Grein.

Datensammeln allein hilft nicht weiter

An den Daten soll es nicht liegen, gab Sanofi-Manager und Namur-Vorstandsmitglied Dr. Thomas Tauchnitz zu bedenken. Zwar protokollieren moderne Feldgeräte bis zu 1000 Prozessparameter in einem Device, doch blieben diese häufig insulär in den Geräten, ohne dass eine horizontale und vertikale Integration über die gesamte Wertschöpfungskette erreicht würde. Es fehle an einer Vision, die über das bloße Datenhamstern hinausgehe, erklärte der Experte. „Die Manager laufen alle zum Bahnhof, um den Zug nicht zu verpassen, aber sie wissen oft gar nicht, in welchen Zug sie steigen wollen“, so Tauchnitz in Mörfelden.

Entsprechend schlägt der Experte einen dreischrittigen Integrationsansatz vor, bei dem Cloud-Lösungen die Integration der Geräte- und Prozessdaten über die einzelnen „Datentöpfe“ hinaus ermöglichen könnten.

In einem zweiten Schritt ließen sich so durch angepasste Big-Data-Applikationen in der Wolke die Daten lokal für das Performance Monitoring, Maintenance-Anwendungen oder die Online-Kalibrierung nutzen bevor als letzte Evolutionsstufe die „Wolken miteinander [zu] reden“ lernen, so Tauchnitz. Echte Wertschöpfungsnetze also, die aus Rohdaten Mehrwert für die Produktion machen.

Demonstrationsanlage bringt Industrie 4.0 in die Praxis

Wie das konkret aussehen könnte, zeigt ein Projekt von Bilfinger: Die Industriedienstleister haben zusammen mit der IGR eine Industrie 4.0 Demonstrationsanlage aufgesetzt, die Anwendungssituationen nachstellen und so realistische Daten und Fehlerszenarien generieren kann.

„Die Digitalisierung ist für die Prozessindustrie und ihre Dienstleistungspartner eine große Herausforderung und Chance“, sagt Gerald Pilotto, Executive President Bilfinger Maintenance, Modifications & Operations (MMO) Continental Europe. „Eine praxisorientierte Zusammenarbeit mit unseren Kunden liefert die optimale Grundlage, unser Know-how auf hohem Niveau weiterzuentwickeln und dadurch die starke Position der europäischen Prozessindustrie im internationalen Wettbewerb zu sichern und auszubauen."

Big-Data kommt: Keine Scheu vor großen Daten

Ziel des Projekts sei es, die Digitalisierung in der Prozessindustrie voranzutreiben, erklärte Bilfinger-Feldbus-Experte und Namur-Obman Sven Seintsch. Für die Entwicklung innovativer Abläufe müssten die Prozess- und Diagnosedaten sämtlicher Betriebs- und Fehlzustände verfügbar gemacht werden.

Bisherige Entwicklungskonzepte scheiterten indes oftmals daran, dass Anlagenbetreiber ihre Daten nur ungern bereitstellen. In der Testanlage werden Industrie 4.0 Anwendungen deshalb unter realen Bedingungen getestet und Prozess- sowie Diagnosedaten für Cloud-Anwendungen generiert.

Realistische Testbedingungen seien eine Grundvoraussetzung für die erfolgreiche Entwicklung von Industrie 4.0 Anwendungen in der Prozessindustrie – doch oft stehen den Entwicklern gerade diese wichtigen Prozessdaten nicht zur Verfügung, erklärte Seintsch.

Zu den wichtigsten Anwendungen der neuen Testanalage zählen daher die Prüfung von Hardware- und Software-Konzepten zur Messwerterfassung im Prozess, die Eignungsprüfung von Internet-Security-Konzepten zur Datenübertragung in die Cloud sowie die Entwicklung von cloudbasierten Softwaretools unter realistischen Voraussetzungen. Die beteiligten Unternehmen können die Anlage unkompliziert und ohne aufwendiges Zustimmungsprocedere nutzen.

Um möglichst viele Anforderungen abzudecken, lassen sich Testaufbauten und -abläufe flexibel an unterschiedliche Anforderungen anpassen. Durch die Unternehmensexpertise in der Instandhaltung von Feldgeräten sieht sich Bilfinger in der Lage, das Prüf- und Simulations-Equipment so zu integrieren, dass sich realistische Fehlzustände gezielt und reproduzierbar einstellen lassen: Das gilt sowohl für unerwünschte Betriebszustände im Prozess als auch für Störungen der Gerätetechnik, wie sie etwa bei Alterungseffekten auftreten.

Wer treibt und wer bremst die voll-vernetzte Anlage?

Konkret nutzt die Demonstrations- und Test-Anlage eine verfahrenstechnische Apparatur mit zwei Behältern und deren Automatisierung, eine Mess- und Regelumgebung entsprechend dem Namur Open Architecture (NOA)-Modell. Diese hilft, die Daten parallel zum Automatisierungssystem zu übertragen und ermöglicht so eine echte Maschinendiagnose mit einer Internetanbindung als Standleitung sowie IT-Security Maßnahmen und Firewalls und eine bzw. bei Bedarf auch mehrere Daten-Clouds.

Als erstes Ziel wurde bereits die Anbindung von Messgeräten über Wireless Hart und andere Verbindungen via Internet-Standleitung in eine Cloud von den Bilfinger-Mitarbeitern des Prüflabors der MSR- und Analysentechnik in Frankfurt am Main umgesetzt.

Dabei habe man bei der IT offene Türen eingerannt, erklärt Seintsch. Auch mit der Verwendung offener Schnittstellenstandards wie etwa OPC UA hätte man gute Erfahrungen gemacht – besonders, da die Aggregation der Daten in der Cloud erfolgen müsse. Jetzt seien die Hersteller gefragt, entsprechende Anwendungen bereit zu stellen – ein Bereich, in dem entsprechende Entwicklerkapazitäten meist noch aufgebaut werden müssten, erklärte der Maintenance-Experte.

Für die Testanlage in Frankfurt stehe jetzt die Integration externer Anlagenkomponenten sowie die Entwicklung intelligenter, netzwerkfähiger Einfachsensoren für einige wenige Euro auf der Agenda um das Potenzial der vorhandenen Prozessdaten auch zu nutzen.

So kann die digitale Transformation gelingen…

Die Digitalisierung sei für Automatisierer nicht neu, erklärte Pepperl+Fuchs-CEO Kegel. Neu sei Verknüpfung der Feldgeräte im „Internet der Dinge“ – einem Netzwerk, das weit über die I/O-Strukturen aktueller Bussysteme hinausgeht. Unstrukturiert, ohne eindeutige Hierarchien und mit einer konstanten Datenbreite über die Prozess- bis in die Unternehmensleitebene entstünde so ein flaches Netz, mit dem Ziel „alle Teilnehmer einfach per Plug&Play zusammenzustöpseln“.

Betriebskompetenz und Transformationsprozesse stehen auch im Mittelpunkt des ersten Smart Process Manufacturing Kongress:

Doch Kegel geht noch weiter: Brauche ein solches System da noch eine echte Leitsystemebene, fragt der Manager scheinbar ketzerisch. Ob Leitsystem oder nicht – für Kegel steht fest, dass Industrie 4.0 mit einem revolutionären Ansatz daher kommt. Und: Es sei kein Hype: „Sie können dieses Thema nicht aussitzen“, ist sich der Manager sicher.

Brückentechnologien und Implementierungsstrategien

Jetzt sei es wichtig, die Weichen in Richtung Zukunft zu stellen, waren sich die Teilnehmer des IGR-Erfahrungsaustauschs einig: Gefragt seien Brückentechnologien und Implementierungsstrategien, mit denen die Vernetzung auch in der Prozessindustrie Einzug halten soll.

Immerhin mahlen hier die Mühlen scheinbar langsamer: Mit langen Anlagenlebenszeiten, hohen Schutzzielen, weitgehend automatisierten Prozessen und hohen Investitionssummen tun sich Chemie- und Pharmafirmen häufig nicht leicht mit der Implementierung neuer Technologien. Dennoch gäbe es „gute Argumente, warum es mit der Industrie 4.0 länger dauert – Keine, es nicht zu tun.“

Additive Fertigung, Predictive Maintenance, Augmented-Reality-Lösungen und neue Impulse für das Anlagen-Energiemanagement seien nur einige der Potenziale der Digitalisierung für die Prozessindustrie. Auch das Potenzial von Deep-Learning-Prozessen kann nur derjenige nutzen, der auch bereit ist, Daten bereit zu stellen. Dass auch diese Vernetzung von Prozessdaten und Know-How eine besondere Sensibilität erfordert, sollte jedem Beteiligten klar sein.

Welche Daten müssen für die Kommunikation überhaupt weiter gegeben werden – und welche nicht? Welche Daten sind sensibel oder intellektuelles Kapital der Anlagenbetreiber? „Wir müssen über gemeinsame Kommunikationsstandrads reden – nicht über Rezepturen“, erklärte folgerichtig ein Teilnehmer des Erfahrungsaustauschs.

Vernetzung auch in der "analogen Welt"

Nicht nur bei der Digitalisierung sind Zusammenarbeit und gemeinsame Standards gefragt: Neben Industrie 4.0 beschäftigte sich der zweitägige IGR-Erfahrungsaustausch mit europäischen Rohrklassen, Reaktionskinetik, REACH, der TA-Luft, Brand- und Explosionsschutz, Ergebnissen aus Typprüfungen sowie Korrosionsschutz und die Anpassung von Instandhaltungs- und Prüfkonzepten an die Betriebssicherheitsverordnung.

Die Teilnehmer profitieren von übergreifendem Wissen aus der Betriebsleitung, Instandhaltung, Produktion, Technik, Planung und der Sicherheitstechnik. „Seit der Gründung bietet die IGR mit dem zweijährigen Erfahrungsaustausch Technik eine Plattform, aktuelle technische Herausforderungen zu diskutieren“, sagt Martin Rauser, Vorstandsvorsitzender der IGR. „Dabei teilen Unternehmen aus der Prozessindustrie das technische Wissen und die Lösungen miteinander, die in der Praxis tatsächlich funktionieren.“

Betriebskompetenz und Transformationsprozesse stehen auch im Mittelpunkt des ersten Smart Process Manufacturing Kongress. Sichern Sie sich noch heute Ihren Ticket!

(ID:44925771)