Big Data in der Logistik – Werden Daten tatsächlich das neue Öl?
Big Data in der Logistik – Werden Daten tatsächlich das neue Öl? In Fachzeitschriften und Veröffentlichungen liest man häufig das Zitat „Data is the new oil“ von Clive Humby aus dem Jahr 2006. Doch inwieweit trifft diese Aussage auf die Logistikbranche zu und auf welche Weise können Daten in der Logistik genutzt werden, um eine konsequente, auf den Kunden ausgerichtete Prozessoptimierung weiter voranzutreiben? Welche Bedeutung hat das Thema Big Data in der Logistik? Dies erläutern wir Ihnen im Folgenden im Rahmen dieses Beitrags.
Vor dem Thema Big Data Logistik zunächst einmal: Was ist unter Daten überhaupt konkret zu verstehen?
Definitorisch sind Daten im Grunde genommen „zum Zweck der Verarbeitung zusammengefasste Zeichen, die aufgrund bekannter oder unterstellter Abmachungen Informationen […] darstellen“.
Zur Einordnung von Daten wird hierzu häufig die sogenannte Wissenspyramide herangezogen, welche die vier Elementtypen Zeichen, Daten, Informationen und Wissen pyramidenförmig in Ebenen darstellt:
Auf der untersten Ebene bestehen zum einen Zeichen wie z. B. Zahlen und Buchstaben. Über die Nutzung von Syntax werden einzelne Zeichen zu einer Aussage angeordnet. Solche geordneten Zeichen bilden zum anderen die Daten, welche sich bereits messen, ordnen und strukturieren lassen. Durch die Semantik wird den Daten letztlich eine Bedeutung zugewiesen. Daraus entstehen demnach Informationen mit einer klaren Bedeutung. Aus der Verknüpfung von Informationen durch Erfahrungen, Wertvorstellungen und Fachkenntnissen entsteht schließlich das Wissen als Spitze der Pyramide. Daten sind folglich wesentlich für einen gezielten Informations- und Wissensaustausch innerhalb des Unternehmens.
Die Rolle von Daten im Zeitverlauf
Im Zeitverlauf nimmt die Bedeutung von Daten überdies fortwährend zu. Dies gilt ebenso für deren Wertbeitrag. Es lassen sich dementsprechend vier Stufen unterscheiden:
Daten als Ergebnis von Prozessen (z. B. rudimentäre Lagerverwaltungssysteme):
In den 70er-Jahren wurden erstmals Informationssysteme eingesetzt. Daten hatten in Unternehmen damals allerdings eine eher unterstützende Funktion und wurden demgemäß als Ergebnis von Prozessen gesammelt.
Daten als Befähiger von Prozessen (Enterprise Resource Planning (ERP), Manufacturing Resource Planning (MRP)):
Über die Verbreitung von Manufacturing Resource Planning (MRP) und Enterprise Resource Planning (ERP) in den 1980/90er-Jahren entwickelten sich Daten allerdings vielmehr zu Befähigern von unternehmensweiten Prozessen. Ohne konsistente und schnell verfügbare Daten wäre die Einführung weltweit standardisierter Prozesse nicht möglich gewesen.
Daten als Befähiger von Produkten (Customer Relationship Management (CRM), e-commerce):
Ab den 2000er-Jahren bieten Unternehmen zudem immer mehr Produkte an, die es ohne hochqualitative Daten nicht geben würde. Ein Beispiel aus der Logistik stellen Tools zum Flottenmanagement mit GPS-Trackern dar. Weiterhin sind Plattformen wie z. B. Amazon oder ebay anzuführen.
Daten als Produkt (Social Netzworks, Big Data Analytics):
Derzeit entstehen immer mehr Marktplätze für Daten (Big Data Analytics). Zudem nimmt die Anzahl zur Verfügung stehender Daten u. a. aufgrund von Sozialen Medien stetig zu. Über Programmierschnittstellen werden Daten dementsprechend automatisiert abgerufen, ausgewertet und per Volumen und Zeiteinheit abgerechnet. Somit sind Daten selbst nicht mehr der Befähiger von Produkten, sondern vielmehr das Produkt selbst.
Es ist wichtig zu verstehen, dass die einzelnen Entwicklungsstufen nicht als getrennt zu betrachten sind, sondern entsprechend parallel in Unternehmen aufzufinden sind. Hierbei wird folglich vom sogenannten Datenparadoxon gesprochen: Einerseits sind Daten eine Ressource für die Leistungserstellung oder das Produkt selbst. Andererseits stellen Daten außerdem die Folge der Digitalisierung selbst dar: Maschinen, Smart Devices, etc. produzieren infolgedessen eine stark zunehmende Menge an Daten.
Kurzum: Bei steigendem Wertbeitrag der Daten, nimmt deren Volumen stark zu. Verantwortlich für diese Entwicklungen sind vor allem die ansteigenden Anforderungen der Kunden sowie der Wettbewerb zwischen den Unternehmen auf international vernetzten Märkten. Unter dem Druck dieser Anforderungen vernetzen Unternehmen ihre gesamte Logistik und erzeugen damit eine Vielzahl von Daten. Somit wird die IT zu einer tragenden Säule in der Logistik. Maschinen, LKW sowie alle elektronischen Hilfsmittel in der Lieferkette werden somit miteinander vernetzt. Für 85 % der gesamten Datenmenge sind die Unternehmen verantwortlich. Ein Großteil davon fällt insbesondere in der Logistik an, da jede logistische Bewegung Erfahrungswerte und damit Daten verursacht. Diesen Informationsschatz gilt es demnach effizient zu nutzen. Denn wie die bereits erläuterte Wissenspyramide aufzeigt, werfen Daten umso mehr Wissen ab, je mehr Datenbestände miteinander verknüpft werden. Es lässt sich somit kurz gesagt festhalten, dass Daten im Vergleich zum physischen Produkt und zum reinen Service noch mehr an Wert gewinnen werden.
Welche Arten von Daten gibt es im Wesentlichen?
Bei Daten lässt sich im Grunde genommen zwischen deren Herkunft differenzieren. Einerseits können Menschen, welche die Daten manuell in IT-Systeme eintragen und somit analoge Daten digital erfassen, als Datenquelle fungieren. Andererseits können Daten auch direkt von Maschinen – wie beispielsweise Computern, intelligenten Maschinen bzw. Sensoren – gewonnen sowie direkt digital erfasst werden. Des Weiteren bestehen sogenannte extrahierte Daten. Bei extrahierten Daten handelt es sich allerdings vielmehr um Daten, die aus anderen IT-Systemen von Plattformen oder intelligenten Produkten übernommen werden. Diese Technologien ermöglichen es schließlich, dass die Anzahl der Daten wie zuvor bereits angesprochen rasant ansteigt.
In der Literatur und der Praxis existieren überdies unterschiedlichste Klassifizierungsansätze bzw.-möglichkeiten. So lassen sich Daten beispielsweise nach der Erscheinungsform differenzieren, also ob es sich um Ton-, Bild- oder Textmaterial handelt. Zudem lassen sich Daten nach der Art der Verwendung clustern. Dort kann beispielsweise zwischen Stamm-, Bewegungs- sowie Bestandsdaten unterschieden werden. Auch eine Klassifizierung nach der Sensibilität der Daten, also hinsichtlich des Kriteriums des Datenschutzes, ist möglich, sodass zwischen vertraulichen und nicht vertraulichen Daten differenziert wird. Eine Klassifizierung der Daten nach der jeweiligen Funktion, also beispielsweise nach Wareneingang, Lager bzw. Transport, ist ebenfalls verbreitet.
Außerdem ist noch darauf hinzuweisen, dass bei der Klassifizierung immer darauf zu achten ist, in welcher Form diese Daten vorliegen. In diesem Zusammenhang wird folglich auch von zwei Transformationen gesprochen. Bei der ersten Transformation werden einerseits analoge in digitale Daten übertragen, woraufhin andererseits bezüglich der zweiten Transformation diese digitalen Daten in Wissen und Informationen übertragen werden. Die Zunahme an Daten stellt vor allem im Hinblick auf die zweite Transformation spannende Möglichkeiten aber auch Herausforderungen für die gesamte Supply Chain dar. Im Zusammenhang mit dieser Datenflut fällt häufig der Begriff Big Data.
Big Data – Eine Definition:
„Mit Big Data werden große Mengen an Daten bezeichnet, […] die mit speziellen Lösungen gespeichert, verarbeitet und ausgewertet werden”. Zur Definition von Big Data werden in erweiterter Form zudem die sogenannten 5V als Charakteristika herangezogen.
Volume (Volumen): Data at Rest
Die Vernetzung sämtlicher Objekte führt – wie bereits dargestellt – zu rapide wachsenden Datenmengen. Big Data lässt sich somit durch das Volumen charakterisieren, was dabei das enorme Datenvolumen beschreibt, welches aus dem ständig wachsenden Informationsfluss resultiert. Auch im unternehmerischen Umfeld stehen Manager und Mitarbeiter immer öfter vor der Herausforderung, die Datenmengen effektiv und effizient zu nutzen.
Variety (Vielfalt): Data in Many Forms
Variety bezieht sich überdies auf die Vielfältigkeit der vorliegenden Datenmenge. Unternehmen müssen mit immer weniger strukturierten Daten wie z. B. Chat-Nachrichten, Blogeinträgen, sozialen Netzwerken, Website-Protokollen, Filmen, Fotos, etc. arbeiten. Daten können folglich strukturiert, unstrukturiert und semi-strukturiert vorliegen, wenngleich die Anzahl der semi- und unstrukturierten Daten mit bis zu 85 % den größten Anteil ausmacht. Weiterhin liegen Daten in verschiedenen Formaten vor, welche nicht ohne Weiteres verglichen werden können. Solch neue Datentypen verlangen aus diesem Grund spezielle Lösungen (Klassifizierung, Reduzierung, Priorisierung, etc.), um in die Entscheidungsfindungsprozesse von Unternehmen integriert werden zu können.
Velocity (Geschwindigkeit; Beschleunigung): Data in Motion
Velocity beschreibt des Weiteren die Geschwindigkeit der Datenentstehung. Durch das mobile Internet und die Digitalisierung (z. B. von Messergebnissen) stehen immer mehr Daten immer schneller zur Verfügung. Unternehmen müssen daher im Zuge von Big Data also Daten in Echtzeit verarbeiten können.
Veracity (Richtigkeit; Wahrhaftigkeit): Data in Doubt
Veracity bedeutet darüber hinaus die Ungewissheit hinsichtlich der Qualität sowie der Vertrauenswürdigkeit von Daten sowie daraus abgeleiteten Ergebnissen. Die Glaubhaftigkeit sowohl von Daten als auch von deren Ergebnissen hängt demnach stark von der Qualität der Input-Daten sowie dem gewählten Analysenverfahren ab. Im Zuge von Big Data muss somit eine hohe Input-Daten-Qualität gewährleistet werden können.
Value (Wert): Data as a Product
Der tatsächliche Wert von Daten liegt vielmehr in dem Nutzen für das Unternehmen – der Wertbeitrag von Daten ist für jedes Unternehmen somit individuell zu betrachten. Zudem werden Daten – wie bereits betrachtet – immer mehr als eigenständiges Produkt gesehen. Big Data stellt die Voraussetzung hierzu dar und sollte demnach insgesamt als eine zusätzliche Informationsquelle gesehen werden. Somit kann einerseits der Entscheidungsfindungsprozess von Unternehmen deutlich verbessert werden und andererseits können sich Massendatenanalysen zu einem neuen Geschäftsmodell von Unternehmen entwickeln.
Was ist der konkrete Nutzen von Big Data, insbesondere für die Logistikbranche?
Ein wesentlicher Vorteil für die Logistik liegt insbesondere in der höheren betrieblichen Effizienz – hervorgerufen durch die Verbesserung in einer Fülle von Teilkomponenten. Zum einen kann durch die gezielte Analyse von großen Datenmengen die Transparenz in den Unternehmen deutlich erhöht werden. Daten können hierbei automatisch und gezielt dem Nutzer bereitgestellt werden. Über die Vernetzung der Beteiligten werden Daten somit umfassend verfügbar. Resultierend aus dieser erhöhten Transparenz wird zudem die Entscheidungsfindung im Unternehmen deutlich erleichtert. Dies führt daher in letzter Konsequenz zu einer erhöhten Prozessqualität und -agilität.
Prozessabläufe werden demnach flexibler, indem z. B. Sendungen basierend auf Datenanalysen schnell umgeroutet werden können. Weiterhin ermöglicht es Big Data, auftretende Störungen rechtzeitig vorherzusagen. Dazu gehören beispielsweise Streiks, Staus, Engpässe durch eine Grippewelle, die Verstopfung von Häfen, Unwetter, politische Unruhen sowie plötzliche Nachfragespitzen. Die frühzeitige Antizipation solcher Störungen ermöglicht somit ein durchgehendes Risikomanagement entlang der Supply Chain. Damit einhergehend werden in Zukunft durchweg Echtzeitdaten zur Verfügung stehen, um die logistische Abwicklung weiter zu optimieren.
Ein simples Beispiel hierzu ist das geplante Zeitfenster beim Abladen an einer Rampe. Sofern ein LKW das ihm zugewiesene Zeitfenster verpasst, entstehen sehr lange Wartezeiten. Heutzutage wird sodann bereits ein anderes Fahrzeug, das schon vor Ort ist, zum Entladen vorgezogen. In Zukunft lässt sich diese Anwendung allerdings durch die Erhebung von Daten in Echtzeit deutlich flexibilisieren und weiter dynamisieren: Sind die voraussichtlichen Ankunftszeiten aller LKW bekannt, kann z. B. eine Künstliche Intelligenz ad hoc die passenden Zeitfenster und die optimale Reihenfolge schnell und effizient festlegen. Darüber hinaus ermöglicht die Erhebung von Daten auch eine verbesserte Nutzung vorhandener Ressourcen, wie z. B. in Bezug auf LKW oder das Personal.
Durch die Bündelung von Transportdaten – auch unternehmensübergreifend – kann beispielsweise die Auslastung der Transportmittel erhöht sowie der Anteil an Leerfahrten reduziert werden. Durch Big Data ist in Kombination mit künstlicher Intelligenz weiterhin auch eine gezielte Routenoptimierung möglich. Letztlich ermöglicht Big Data ebenfalls eine enorme Fehlerminimierung.
Sämtliche dieser Vorteile führen unter dem Strich zu einer Verbesserung der Lieferzuverlässigkeit, Lieferqualität, Lieferflexibilität sowie Lieferfähigkeit von Unternehmen. Zudem lassen sich im Regelfall die Logistikkosten durch das Vorhandensein gebündelter Daten senken.
Hier sehen Sie einige ausgewählte Beispiele, wie Big Data in der Logistik bereits nutzenbringend eingesetzt wird:
…um fahrerlose Transportfahrzeuge gezielt auszulasten,
…um die Wartung von Produktionsanlagen zu optimieren,
…um personalisierte Echtzeit-Information über Staus, die Wetterlage oder Zugverbindungen bereitzustellen,
…um Verkehrsströme zu analysieren, die Wahrscheinlichkeit für eine Auslastung bei der Rückfahrt zu optimieren und dadurch Leerfahrten zu verringern.
Weiterhin kann durch Big Data die Kundenzufriedenheit sowie -bindung erhöht werden. Einerseits ermöglicht die konsequente Erhebung von z. B. Verkaufsdaten, Kundenfeedback, usw. eine Verbesserung der Kundenloyalität. Durch Big Data-Analysen kann andererseits ebenfalls ein integrierter Überblick über Interaktionen mit Kunden gewährleistet werden. Dies erlaubt folglich eine präzise Kundensegmentierung, sodass Zielgruppen gezielt angesprochen werden können. Gleichzeitig werden Kundeninteraktionen sowie der Kundenservice optimiert. Predictive Analytics ermöglicht zudem beispielsweise die Einsicht in das Kundenverhalten sowie Nachfragevorhersagen. So plant Amazon z. B. im Sinne von Predictive Analytics, einen Artikel basierend auf dem Kundenverhalten zu versenden, bevor der Kunde jedoch die eigentliche Bestellung ausgeführt hat.
Zudem entstehen durch Big Data in der Logistik neue Geschäftsmodelle. Wie bereits erwähnt, steigt der Wert von Daten stark an und Daten werden selbst zum Produkt. Darüber hinaus bestehen vor allem im Feld von Anticipatory und Predictive Logistics neue Geschäftsfelder. Weiterhin entwickeln Start-Ups vielfach Geschäftsmodelle, die sich vielfach durch die Analyse großer Datenmengen auszeichnen.
Doch was sind Risiken bzw. Herausforderungen von Unternehmen in Bezug auf Big Data und die Nutzung von Daten in der Logistik?
Die Anforderungen an den Datenschutz haben in den vergangenen Jahren stark zugenommen. Je mehr Daten produziert werden, desto höher ist das Risiko, Datenschutzrichtlinien zu verletzen – insbesondere was die Weitergabe von Daten angeht. Somit müssen Unternehmen die Vertraulichkeit sowie Anonymität von Daten gewährleisten können, indem eine volle Kontrolle des Datenzugriffs vorliegt.
Ein weiterer Aspekt ist die Datensicherheit. Es gilt hierbei zu vermeiden, dass Daten manipuliert werden können – insbesondere dann, wenn Unternehmen Daten an Externe weitergeben oder von Externen beziehen. Eine mögliche Lösung läge beispielsweise in der Blockchain-Technologie, die eine Manipulation nahezu unmöglich macht. Diese komplexe Technologie effizient und wirtschaftlich zu nutzen, stellt allerdings eine große Herausforderung für Unternehmen sowie an die IT bzw. die IT-Infrastruktur dar.
Darüber hinaus beschränkt sich die Nutzung von Daten in der Logistik häufig noch auf einen begrenzten Bereich in den Unternehmen. Wenngleich im gesamten Unternehmen eine große Menge an Daten vorliegt, befinden sich diese häufig in sogenannten Datensilos. Auf diese haben folglich zumeist nur bestimmte Abteilungen Zugriff. Andere Unternehmensbereiche haben auf diese Daten in der Regel keinen bzw. nur einen stark begrenzten Zugriff.
Ähnliches gilt überdies für die unternehmens- oder gar branchenübergreifende Zusammenarbeit. Viele Unternehmen weigern sich derzeit noch, Daten mit anderen Unternehmen oder gar Marktbegleitern auszutauschen. Genau in diesem Punkt liegt allerdings der Schlüssel: Erst aufgrund der unternehmens- und auch funktionsübergreifenden Verwendung und Kombination der vorhandenen Daten ergibt sich der notwendige Mehrwert von Daten, um weitere Optimierungspotentiale zu heben.
Zudem verfügen nur ca. 15 % der Unternehmen, die Big Data-Analysen durchführen, über eine Big Data-Strategie. Mit einer solchen Strategie sollte definiert werden, welche ökonomischen Faktoren für das Unternehmen besonders relevant sind (z. B. Qualität, Kosten, Geschwindigkeit, etc.). Außerdem sollten die Stakeholder des Unternehmens analysiert und Key Performance Indicators, Ziele der Datenerhebung und -analyse, Investmentpläne sowie die Technologieinfrastruktur festgelegt werden.
Eine weitere Hürde stellt darüber hinaus die Unternehmenskultur dar, die möglicherweise der effizienten Nutzung von Daten im Zuge der Digitalisierung entgegenstehen. Es sind insbesondere disruptive Ideen, eine hohe Risikobereitschaft und eine „Einfach mal ausprobieren“-Haltung notwendig.
Weiterhin liegen in vielen Unternehmen noch nicht die notwendigen Kenntnisse bei den Mitarbeitern vor. Fähigkeiten zur strukturierten Erhebung, Speicherung und statistischen Analyse von Daten werden in Zukunft vor allem für die Logistik immer bedeutender. Unternehmen müssen somit ihr Personal gezielt schulen und entwickeln bzw. sogenannte Data Scientists einstellen.
Das wohl größte Problem liegt jedoch in der Datenqualität. Sofern diese nicht stimmt, bringen auch die besten Analysetools nichts. Zum einen können die vorhandenen Daten (wie z. B. Materialstammdaten, Statusdaten, Auftragsdaten, etc.) unvollständig oder sogar falsch sein, da sie durch verschiedene Personen bearbeitet oder manuell erhoben wurden. Zum anderen kann es auch vorkommen, dass aktuelle Daten mit veralteten Informationen überschrieben werden. In Bezug auf die Stammdatenqualität besteht ein großer Handlungsbedarf, bei welchem wir – das Team von Vallée und Partner – Sie gerne unterstützen.
Weiterhin stehen Daten in der Logistik teilweise noch nicht zeitnah zur Verfügung. Der Grund ist oft die fehlende Kenntnis der Beteiligten, welche Daten die anderen „Prozesskollegen“ zu welchem Zeitpunkt brauchen. Allein der interne Durchlauf von Auftragsdaten von der Ersterstellung bis hin zur Verfügbarkeit in der Logistik kann heutzutage noch Tage andauern.
Mit Big Data einhergehende Trends in der Logistik:
Einhergehend mit Big Data bestehen folgerichtig einige weitere Trends. Zum einen wird vielfach das Thema Cloud Logistics genannt. Cloud Computing befasst sich mit der Auslagerung von IT-Ressourcen. Anstatt eigene Rechner, Server oder Software zu benutzen und somit die Last im eigenen Netz zu verteilen, werden die Infrastruktur sowie die gerade benötigten Dienste bei Cloudanbietern abgerufen. Das Cloud-Logistics-Prinzip ist ein vielversprechender Ansatz, die Flexibilität und Robustheit von Lieferketten zu erhöhen. Logistikdienstleister können z. B. anpassbare und modulare Cloud-Services je nach Bedarf nutzen über einen sogenannten „Pay-per-use-Approach“.
Weiterhin geht das sogenannte Internet of Things einher mit der Thematik Big Data. Das Internet of Things selbst ist hierbei ein Netzwerk von Objekten, die mit dem Internet verbunden sind und Daten sammeln bzw. austauschen. Diese großen Datenmengen können im Sinne von Big Data sodann weiterverarbeitet sowie ausgewertet werden. Das Internet of Things ermöglicht folglich auf lange Sicht eine Selbststeuerung von Prozessen.
Zudem werden ferner immer neue Generationen von smarten Labels entwickelt, welche die Transparenz und Rückverfolgbarkeit in der Supply Chain erhöhen. Somit werden durch solche sogenannten Digital Identifiers immer größere Datenmengen erhoben.
Als ein potentielles Instrument, welches die großen Datenmengen letztlich verarbeiten und auswerten kann, ist ebenso die Künstliche Intelligenz anzuführen. Machine Learning oder selbstlernende Systeme ermöglichen demzufolge die Durchführung umfassender Datenanalysen.
Darüber hinaus besteht ein Ansatz in Bezug auf das schon angesprochene Predictive Analytics. Dies beinhaltet kurz gesagt die Durchführung vorausschauender Analysen. Basierend auf maschinellem Lernen sowie Prognosealgorithmen lässt sich somit die Wahrscheinlichkeit zukünftiger Ergebnisse oder Ereignisse prognostizieren. Es ergeben sich im Grunde genommen wesentliche Vorteile:
- Deutlich schnellere Vorhersage von Geschäftsergebnissen (Automatisierung des gesamten Modellierungsprozesses von Prognosen)
- Skalierung von Prognosemodellen (Modelle lassen sich in jeglicher Form automatisiert generieren)
- Integration von Prognoseergebnissen in die Entscheidungsfindung
- Anwendungsbeispiele in der Logistik sind diesbezüglich beispielsweise:
- Vorhersage von Abfahrtszeiten, Lieferterminen, Ankunftszeiten entlang der gesamten Supply Chain, z. B. über Geolocation-Analysis
- Vorhersage des Paketvolumens oder des Absatzvolumens
- Vorhersage von konkreten Kundenbestellungen, z. B. durch Amazon
- Vorhersage des Kundenbedarfs für einen bestimmten Artikel, z. B. durch die Otto-Gruppe in der Textilbranche
Unser Fazit:
Durch die Analyse großer Datenmengen versuchen Unternehmen v. a. in der Logistik, die logistischen Prozesse in einem umkämpften Wettbewerbsmarkt weiter bis ins kleinste Detail zu optimieren. Ebenfalls werden Daten – auch in der Logistik – immer mehr zum eigentlichen Produkt: Durch den Verkauf von Daten entstehen infolgedessen z. B. neue Geschäftsmodelle. Zudem werden Daten genutzt, um die Zusammenarbeit entlang der Supply Chain zu verbessern sowie eine größere Transparenz zu schaffen. Das Einstiegszitat lautet „Data is the new oil“. Und das stimmt auch – vorausgesetzt es wird in den folgenden Kontext eingebettet: Daten werden bzw. sind einer der wichtigsten Rohstoffe der Zukunft. Und zwar bewusst: Rohstoffe – denn Daten allein schaffen noch keine Werte für Ihr Unternehmen. Sie müssen nicht nur erhoben, sondern auch analysiert, interpretiert und optimiert werden. Schließlich stellen Daten die Grundlage für die zukünftige Selbststeuerung von logistischen Prozessen dar. Bis dahin ist es jedoch noch ein weiter Weg, bei dem wir Sie gerne unterstützen möchten Als ersten Schritt stellen wir Ihnen hierzu im Folgenden daher gerne ein paar wesentliche Handlungsempfehlungen bereit.
Unsere Handlungsempfehlungen im Bereich Big Data Logistik für Sie:
Wir möchten Ihnen gerne zuletzt sechs wesentliche Handlungsempfehlungen an die Hand geben:
(1) „Den eigenen Keller aufräumen”
Bevor es überhaupt Sinn macht, sich mit Big Data-Analysen zu beschäftigen, muss zuerst eine hohe Datenqualität sowie -validität der Eingangsdaten vorliegen. Hierzu muss v. a. ein funktionierendes Stammdatenmanagement implementiert werden.
(2) Datentransparenz schaffen
Datensilos müssen abgebaut werden. Die im Unternehmen vorhandenen Daten müssen infolge jedem Unternehmensbereich zielorientiert und bei Bedarf bereitgestellt werden können. Weiterhin sollte eine solche Transparenz auch unternehmensübergreifend vorliegen.
(3) Data Science Fähigkeiten fördern
Der Schlüssel zur effizienten Nutzung von Daten in der Logistik liegt weiterhin in der Beherrschung der umfangreichen Datenanalysen sowie der hierzu notwendigen Technik. Daher müssen Unternehmen gezielt in spezialisiertes Personal investieren.
(4) Kleine Schritte anstatt des großen Wurfs
Unternehmen sollten überschaubare Pilotprojekte starten und hierdurch die Lösung kontinuierlich – Schritt für Schritt – verbessern. Wer versucht, die perfekte Lösung zu beschreiben, wird nie damit fertig und infolgedessen vom Markt abgehängt.
(5) IT nicht besitzen, sondern nutzen
Unternehmen müssen IT nicht mehr besitzen, sondern können – falls sinnvoll – auch auf Lösungen des Marktes zurückgreifen. Wichtig ist, dass Unternehmen es unter dem Strich schaffen, Daten effizient für sich zu nutzen – und das möglichst schnell.
(6) Potenzial der Digitalisierung für das eigene Unternehmen erkennen
Über allem steht die Definition des Ziels, das Unternehmen mit dem Schritt ins digitale Zeitalter erreichen wollen. Es gilt demnach die Fragen bzw. Zielsetzungen festzulegen, die mit Hilfe der Datenanalysen beantwortet werden sollen.
Haben wir Ihr Interesse geweckt? Sehr gerne unterstützen wir Sie bei der Optimierung Ihrer Stammdatenqualität oder in Bezug auf Big Data-Analysen. Hierzu setzen wir u. a. am Markt etablierte Tools wie Tableau und Celonis ein. Kontaktieren Sie uns gerne. Wir freuen uns auf Ihre Anfrage.
Sie wollen mehr über Big Data in der Logistik, Tableau oder Process Mining mit Celonis wissen?