Navigation überspringen

Industriereife Datenbasis für eine KI-optimierte Logistik

Wann ist ein Gleitlager in der Fertigungshalle für Schiffsmotoren verfügbar? Wann kann ein Patient eine Salbe in der Apotheke abholen? Zu welcher Uhrzeit bekommt der Kunde eine Online-Bestellung nach Hause geliefert? KI mit präzisen Daten beantwortet diese Fragen. Anhand eines Projektbeispiels erklären wir, wie dies umgesetzt wird und welche Rolle dabei auf Graphen basierende Algorithmen und Datenstrukturen spielen.

Ohne präzise Daten, keine Prognosen 

Moderne Logistik muss in der Lage sein, die Ware pünktlich an den gewünschten Ort zu bringen. Dafür werden Prognosemodelle (z.B. auf Basis von neuronalen Netzen) verwendet. Damit dies kosteneffizient geschieht, kommen zusätzlich Optimierungsmethoden zum Einsatz (z.B. Graph-Algorithmen aus der ganzzahligen Optimierung).  

Ein Prognosemodell schlägt jedoch fehl, falls keine präzisen Daten vorliegen. Aktuelle Wetterdaten und Staumeldungen sind hier ebenso relevant wie Langzeitstatistiken über Transportrouten.  

Ebenso setzen die mathematischen Methoden präzise Daten über den Inhalt von Transporten voraus. Es reicht nicht zu wissen, ob ein Wein beim Produzenten bestellt wurde, es muss auch die Information vorliegen, wann der LKW mit der Ware losgefahren ist. Falls die Ware beim Transport beschädigt wurde, sollte der Kunde nicht erst eine Stunde vor seiner Dinnerparty gefragt werden, ob es nicht auch ein anderer Wein sein könnte. Wird mit dem Kunden rechtzeitig gesprochen, kann der Lieferservice möglicherweise noch eine alternative Bezugsquelle finden und der Wein steht pünktlich um 20 Uhr auf dem Tisch. Oder das Optimierungsmodell beinhaltet Risikominimierung. Ein entsprechendes Szenario wurde daraufhin bei der automatischen Planung vorgesehen und kann durch aktuelle Daten rechtzeitig zum Einsatz gebracht werden.   

In diesem Sinne: Eine genaue Prognose und Optimierung ohne genaue und aktuelle Daten ist nicht möglich.  

Von den Einzelsystemen auf die Prozesssicht 

Ein weiterer wichtiger Aspekt ist, dass die Daten zueinander passen müssen. z.B. reicht es nicht zu wissen, dass ein Wein beim Winzer bestellt wurde und dass gerade ein LKW beim Winzer Wein abtransportiert hat. Es ist auch wichtig zu wissen, ob der bestellte Wein in dem Transport enthalten ist und natürlich in welcher Menge. D.h. die Daten aus den Einzelsystemen müssen auf die Prozesssicht abgebildet werden. Diese Einzelsysteme können vollkommen voneinander getrennt sein. Der Winzer und der Transporteur sind in der Regel unterschiedliche Firmen.  Im operativen Geschäft der einzelnen Akteure ist eine Prozesssicht nicht vorgesehen, die Quellsysteme haben ganz andere Anforderungen abzubilden.  

Eine zentrale Aufgabe ist es, diese partielle Sicht auf die Prozesssicht zu transformieren. Für die Auswertung der Logistik ist die Prozesssicht relevant und nicht die Quellsystemsicht der einzelnen Teilsysteme.  

Ohne Modellierung, keine Industriereife 

Data Engineering wird somit zum wesentlichen Bestandteil der Logistik. Es gibt kein industriereifes Engineering ohne Modellierung. In diesem Sinne steht bei uns das auf die Logistikkette ausgerichtete Datenmodell im Fokus. Der Tatsache entsprechend, dass es um sehr komplexe, aber auch sehr veränderliche Prozesse geht, modellieren wir mit Data Vault. Diese Art der Datenmodellierung ist gerade für ein agiles Umfeld gut geeignet. Die Data-Vault-Modellierung kann jedoch nicht die gesamte komplexe Fachlichkeit effizient abbilden. In diesem Sinne sind unsere Modelle wesentlich umfangreicher und verwenden sowohl diskrete Mathematik (z.B. Graphenmodelle) als auch Prozessmodellierung. 

Ohne Qualitätssicherung, keine Industriereife 

Fehlerhafte Daten zerstören die Prognosefähigkeit. Wir verwenden ein modellbasiertes Datenqualitätsmanagement. Das Modell stellt die Fachlichkeit dar und das Datenqualitätsmanagement hat die Aufgaben, die Daten bezüglich der Fachlichkeit zu prüfen und bei Abweichungen eine schnelle Klärung zu ermöglichen. In einer komplexen Datenlandschaft gehören fehlerhafte Daten zum Alltag. Ein modellbasiertes Datenqualitätsmanagement ermöglicht zuverlässigere Prognosen und Optimierungsmaßnahmen.   

Elemente einer industriereifen Datenbasis für KI 

Aus den oben dargestellten Aspekten hat unsere Datenbasis die folgenden Kernelemente:  

  • Data Vault Modellierung zur Gewährleistung der Agilität der Modelle 
  • Erweiterte Modellierung zur umfangreichen Erfassung der Fachlichkeit 
  • Transformation der partiellen Datenquellen auf einen zusammenhängenden Prozessgraphen 
  • Überprüfen der modellierten Fachlichkeit durch Datenqualitätsmanagement 

Fazit

Präzise Prognosen in der Logistik sind für den Geschäftserfolg besonders wichtig und mit einer modernen KI und Datengrundlage bestens durchführbar.  Diese Kompetenzen sind unser Tagesgeschäft, welche wir in vielen Kundenprojekten gewinnbringend einsetzen. 

Falls Sie Interesse haben, laden wir Sie gerne zu einem Workshop ein, damit wir an konkreten Aufgaben aus Ihrem Tagesgeschäft Lösungen entwickeln können.

Melden Sie sich gerne bei uns. Wir freuen uns auf Ihre Nachricht.

Nehmen Sie Kontakt auf

Unsere Website kann natürlich nur einen ersten Eindruck von uns und unserem Leistungsspektrum vermitteln. Viel besser können wir in einem persönlichen Gespräch darstellen, wer wir sind, was uns ausmacht und was wir für Sie tun können. Per E-Mail, am Telefon oder face to face. Wir freuen uns auf den Dialog mit Ihnen.

Captcha Grafik