Logistiksoftware

Was ist Big Data? Analytics, Definition, Bedeutung & Beispiele

Seite: 2/3

Firma zum Thema

Mehrwerte von Big Data für die Logistik

Warum man sich gerade auch in der Intralogistik mit dem Wert der Daten beschäftigen sollte, zeigt ein kurzer Blick auf mögliche Anwendungsszenarien. „Die Analysen auf der Basis von historischen und Echtzeit-Datenmengen helfen dabei, die komplexen, sehr variablen logistischen Zusammenhänge als Grundlage für eine Entscheidung einfach und transparent darzustellen. So werden Entscheidungsfindungen auch für die Lagertechnik beschleunigt und sicherer“, skizziert Prof. Michael Schenk, Institutsleiter des Fraunhofer-Instituts für Fabrikbetrieb und -automatisierung. „Die automatisierte Erfassung des operativen Zustandes des Lagers ist außerdem eine permanente Datenquelle, die neuartige, moderne Analyseverfahren ermöglicht. Mit ihnen können im dynamischen Tagesgeschäft letztendlich noch sicherere Entscheidungen und eine höhere Verfügbarkeit des Lagers bei gleichzeitiger Verringerung der Lagerbestände und Ressourcen erzielt werden.“ Eines der Ergebnisse dieser Entwicklung könnte dann sein, dass beispielsweise das Bestandsmanagement zukünftig dank innovativer Software vollautomatisiert vonstatten geht. Das wird jedoch wohl nicht von heute auf morgen passieren, wie Fischer betont.

Beispiele für Big-Data-Anwendungen in der Logistik:

  • Verkehrsvorhersagen nutzen: KEP-Dienstleister und andere Transportunternehmen müssen immer schneller liefern, um sich gegen die Konkurrenz durchzusetzen und den Abnehmerwünschen gerecht zu werden. Eine Echtzeit-Verkehrsanalyse ist da ein Segen – und Big Data macht's möglich: Die Speicherung von Bewegungsdaten unzähliger Verkehrsteilnehmer erlaubt die Erstellung präziser Prognosen, wo sich Staus bilden können und wie lange man für welche Route braucht.
  • Risiko- und Bestandsmanagement revolutionieren: Der Produktionsausfall aufgrund fehlender Rohstoffe ist ein Horrorszenario für Fertigungsbetriebe. Dank Big Data lassen sich Bestände nun aber mithilfe der entsprechenden Software deutlich effizienter managen als bisher. Die Analyse von Verbrauchsdaten erlaubt es, Warnsysteme zu generieren, die im Vorfeld etwaiger Engpässen frühzeitig Bescheid geben.

Prof. Michael Schenk, Institutsleiter des Fraunhofer-IFF sieht potenzielle Anwendungsszenarien von Big-Data-Technologien unter anderem in der Lagertechnik.
Prof. Michael Schenk, Institutsleiter des Fraunhofer-IFF sieht potenzielle Anwendungsszenarien von Big-Data-Technologien unter anderem in der Lagertechnik.
(Bild: Dirk Mahler)

Laut Expertenmeinung werden auch die Prescriptive Analytics noch viel zu selten thematisiert. Dabei geht es nicht mehr nur darum, Handlungsempfehlungen zu geben, sondern zu bewerten, welche die beste zur Verfügung stehende Option ist. Grundlage hierfür sind mathematische Methoden, die auf Basis von Big Data verschiedene Lösungen vorschlagen können und auch anzeigen, wie weit diese Optionen vom Optimum entfernt sind. „Wir sollten uns in unserer Gedankenwelt nicht zu sehr darauf fixieren, dass irgendwann die Maschinen alles entscheiden. Aber die Entscheidungsvorschläge können von der Maschine kommen und der Mensch kann entscheiden. Wenn wir dann genug Vertrauen aufgebaut haben, kann es aber durchaus auch automatisierte Lösungen geben“, so Dr. Fischer. „Es werden gerade diese Daten sein, aus denen auch in der Intralogistik neue Geschäftsmodelle entstehen werden. Die Prognose ist, wenn Sie so wollen, der Wetterbericht. Aber über Prescriptive Analytics werden wir in der Lage sein, das Wetter zu beeinflussen und zu verändern.“

Aus dieser Gewissheit entsteht dann auch ein weiterer Anreiz, aus dem sich Unternehmen lieber früher als später mit der Software zur Erfassung, Verarbeitung und Auswertung von Big Data befassen sollten: Andere – möglicherweise gänzlich neue – Player werden es tun. Schon jetzt sondieren Onlineriesen wie Amazon und Google die Märkte unablässig nach neuen Möglichkeiten, um ihre Expertise und Fertigkeiten gewinnbringend in neuen Branchen einzusetzen und Start-ups sprießen in den unterschiedlichsten Branchen aus dem Boden, teilweise mit Angeboten, an die die etablierten Unternehmen bislang nicht einmal gedacht haben. Noch sind Anbieter von Produkten aus Stahl und Eisen und stark auf Branchen zugeschnittenen Dienstleistungen von dieser Entwicklung relativ verschont geblieben. Doch so wie intelligente IT-Lösungen den Kunden immer wichtiger werden, ist es nur eine Frage der Zeit, bis diese Schutzmauer fällt.

Ein vom Fraunhofer IFF entwickeltes RFID-Armband für Prozesse in der Intralogistik zeigt, wie Daten für Big-Data-Systeme gewonnen werden können.
Ein vom Fraunhofer IFF entwickeltes RFID-Armband für Prozesse in der Intralogistik zeigt, wie Daten für Big-Data-Systeme gewonnen werden können.
(Bild: Dirk Mahler, Fraunhofer IFF)

Woher kommen die Daten?

Datenquellen für Big Data gibt es in der Intralogistik genügend und es wird bereits eine große Datenmenge. Man muss nur daran denken, wie viele Daten allein bei einem Gabelstapler im Einsatz entstehen – Bewegungsabläufe, Routen, Warenbezeichnungen und so weiter. Über Leitsysteme kann ein Großteil dieser Daten bereits erfasst werden, allerdings werden sie selten wirklich genutzt, da die dazu nötigen Werkzeuge nicht bekannt sind und häufig das Vertrauen in Big Data fehlt.

Betrachtet man aber die Idee des Internet of Things (oder der cyberphysischen Systeme), wird deutlich, dass innovative Software zum Umgang mit Big Data dringend gebraucht wird. „Wir stehen hier derzeit noch am Anfang der Entwicklung“, so Schenk. „Einerseits sind die notwendigen Technologien vorhanden. Dank der Vernetzung mobiler Objekte durch neue Funkstandards kommen wir aktuell sogar auf ein neues Technologielevel. Zudem sinken die Preise für die Technik bei gleichzeitiger Verbesserung der Leistungsfähigkeit. Was andererseits jedoch fehlt, sind Schnittstellenstandards von der Quelle bis zur Senke. Die Logistik benötigt zwingend eine internationale und standardisierte Verfügbarkeit von Telekommunikationsinfrastrukturen. Das ist es, was in den kommenden Jahren vorrangig angegangen werden muss.“

Sind diese Schritte aber einmal gemacht, steht den Unternehmen eine Datenflut bevor, die auf konventionellem Weg gar nicht mehr gehandelt werden kann. Hier erkennen nur noch maschinelle Systeme die Muster, aus denen dann ein Mehrwert gewonnen werden kann. Das wird in diesem Umfeld auch dezentral geschehen, indem Objekte direkt miteinander kommunizieren, lokal die besten Lösungen für bestehende Probleme finden und diese dann in einen Gesamtkontext einbringen. Die Daten, die hier anfallen, wird man im Sinne von Big Data zukünftig nutzen, um neue Erkenntnisse zu gewinnen.

In diesem kurzen Video präsentiert Great Learning fünf spannende Trendprognosen zum Thema Big Data.

(ID:45185631)

Über den Autor

 Sebastian Hofmann

Sebastian Hofmann

Journalist, Vogel Communications Group