Big-Data Big-Data-Analysen – auf der Suche nach dem neuen Gold
Es ist ein Spiel der ganz großen Zahlen: Big-Data-Analysen werden als eine der Säulen angesehen, um Prozesse zu optimieren, Standorte effizienter zu gestalten, neue Geschäftsfelder zu generieren oder schlicht die Nase im globalen Wettbewerb etwas weiter vorne zu haben. Dass hier immense Potenziale liegen, ist Konsens – die Herausforderung liegt jedoch an anderer Stelle.
Anbieter zum Thema

Mehr als eine Milliarde Euro planen die Chemieunternehmen in den nächsten drei bis fünf Jahren in Digitalisierungsprojekte oder neue digitale Geschäftsmodelle zu investieren, so die jüngste Studie zum Thema Industrie 4.0, die Anfang Oktober vom Verband der Chemischen Industrie und Deloittle vorgestellt wurde. Nicht verwunderlich also, dass bereits auf der Namur-Hauptsitzung 2016 Bayer-Mitarbeiter Thorsten Pötter die Herausforderungen einer intelligenten Datenanalyse mit der Suche nach Gold verglich.
Die Frage, wo die Daten liegen, ist meist schnell geklärt. Schließlich existieren in der gesamten Produktionskette bereits viele Systeme, die jede Menge Daten liefern. Die Lösung liegt nicht allein in besseren Algorithmen, leistungsstärkeren Computern oder Köpfen (etwa in Form von Chemie-ITlern), sondern in vielen Detailfragen. So sind die Datenquellen in der Prozessindustrie häufig heterogen. Abgesehen von verschiedenen Dateiformaten, sind die Informationen auch noch ohne ausreichende Zeitsynchronisation und ohne eine Definition der Semantik gespeichert. Zudem sorgen die schiere Datenmenge sowie Echtzeitanforderungen für große Herausforderungen.
Eine der Kernfragen lautet: Wie setzt man die Daten in den korrekten Zusammenhang? Selbst wenn die Daten vorliegen, sind die Ziele, also was genau denn optimiert werden soll, alles andere als eindeutig. Ein Standortleiter hat vielleicht seinen gesteigerten Produkterlös im Fokus, auf Konzernebene steht darüber hinaus aber möglicherweise die standortübergreifende Minimierung des Energieausstoßes im Vordergrund.
Unbeeindruckt von solchen Herausforderungen ist derzeit eine wahre Digitalisierungsoffensive im Gang. So verkündete beispielsweise der Spezialchemiekonzern Evonik im Sommer, für Digitalisierungsprojekte rund 100 Millionen Euro zur Verfügung zu stellen.
:quality(80)/images.vogel.de/vogelonline/bdb/1253000/1253050/original.jpg)
Kooperation mit IBM und Uni Duisburg-Essen
Evonik macht ernst – 100 Millionen Euro für die Digitalisierung
Auch bei BASF setzt man auf den verstärkten Einsatz digitaler Technologien. Zentrales Element ist dort ein neuer Supercomputer, der mit 1,75 Petaflops (das sind 1015 Rechenoperationen pro Sekunde) eine etwa zehnmal höhere Rechenleistung als bisher liefert.
:quality(80)/images.vogel.de/vogelonline/bdb/1308300/1308373/original.jpg)
Digitalisierung der Forschung
BASF startet Supercomputer „Quriosity“
Die Rechnung der BASF: Beim digitalen Ansatz gehen virtuelle Modellierungen und Simulationen am Computer sowie reale Experimente am Labortisch Hand in Hand und ergänzen sich gegenseitig. Das gewonnene, bessere Verständnis von chemischen Produkten und Prozessen ermöglicht so mehr Innovationen in kürzerer Zeit.
(ID:44871220)