Linked Data

Linked Data als Kompromiss zwischen Excel-Tabelle und globaler Norm

Seite: 3/3

Anbieter zum Thema

Durch den Einsatz lokaler Informationsmodelle, die nur für das unmittelbare Interoperabilitätsziel erstellt wurden, kann ein agiler und kosteneffizienter „model-as-you-use“-Ansatz realisiert werden. Die Erfahrungen in den Anwendungsfällen von Com-Vantage zeigen auf, dass die Modellierung mit der Unterstützung von Fachexperten ausgesprochen schnell erfolgen kann. Dies wird zudem durch eine Vielzahl von spezialisierten Werkzeugen aus dem Umfeld des Semantic Web (Protégé, OntoSketch…) unterstützt und somit für Nicht-Experten überhaupt erst ermöglicht.

Das Konzept Linked Data stellt zudem sicher, dass die Modelle bei Bedarf schnell erweitert werden können. Allerdings werfen die Arbeiten auch eine Reihe unbeantworteter Fragen auf, die für die digitale Anlage essentiell sind:

  • Wie sind die gleichzeitig hohen Anforderungen an Flexibilität und Stabilität zu erfüllen?
  • Wie können komplexe Datenintegrations- und Konsolidierungsprozesse wiederholt werden?
  • Wie können die hohen Anforderungen an Flexibilität und Sicherheit vereint werden?
  • Wie können die Modelle effektiv und effizient abgestimmt werden?

Com Vantage hat darauf erste Antworten erarbeitet – beispielsweise Methoden, um Integrität und Zugriffsschutz regelbasiert sicher zu stellen oder prototypische Realisierungen hochgradig wiederverwendbarer Komponenten für industrielle mobile Anwendungen.

Zusammenfassend: Linked Data ist ein vielversprechender technischer Kompromiss zwischen Excel-Tabellen und globalen Normen, um eine zielgerichtete, gegebenenfalls nur temporäre Integration zu erreichen. Geschwindigkeit und Flexibilität bleiben erhalten, gleichzeitig können je nach Anforderungen der Anwendung verschiedene Mechanismen zur Konsistenzsicherung etabliert werden. Eine Ausweitung bis hin zur Anschluss-fähigkeit an globale Normen wie ISO 15926 ist nicht ausgeschlossen.

Zwei Wermutstropfen bleiben jedoch: Viele Werkzeuge sind im Hinblick auf Nutzerfreundlichkeit und Stabilität noch nicht in einem Reifestadium, die für Produktivsysteme notwendig wäre; eine gute Informationsmodellierung, d.h. eine effektive und effiziente Auswahl, Strukturierung, Komposition und Benennung der vielfältig anfallenden Daten ist hochgradig abhängig von einer gut formulierten Zielstellung sowie dem Geschick und der Erfahrung der Modellierer.

Letzteres ist wohl der Sache an sich geschuldet. Hier sind auch die Hochschulen gefragt, und in der Tat ist seit einiger Zeit zu beobachten, dass in dem einen oder anderen Ingenieurstudiengang die Informationsmodellierung durchaus zu den Lehrinhalten gehört. ●

* Der Autor ist Inhaber der Professur für Prozessleittechnik an der Technischen Universität Dresden.

*

(ID:42341955)