Wann ist ein Gleitlager in der Fertigungshalle für Schiffsmotoren verfügbar? Wann kann ein Patient eine Salbe in der Apotheke abholen? Zu welcher Uhrzeit bekommt der Kunde eine Online-Bestellung nach Hause geliefert? KI mit präzisen Daten beantwortet diese Fragen. Anhand eines Projektbeispiels erklären wir, wie dies umgesetzt wird und welche Rolle dabei auf Graphen basierende Algorithmen und Datenstrukturen spielen.

Ohne präzise Daten, keine Prognosen 

Moderne Logistik muss in der Lage sein, die Ware pünktlich an den gewünschten Ort zu bringen. Dafür werden Prognosemodelle (z.B. auf Basis von neuronalen Netzen) verwendet. Damit dies kosteneffizient geschieht, kommen zusätzlich Optimierungsmethoden zum Einsatz (z.B. Graph-Algorithmen aus der ganzzahligen Optimierung).  

Ein Prognosemodell schlägt jedoch fehl, falls keine präzisen Daten vorliegen. Aktuelle Wetterdaten und Staumeldungen sind hier ebenso relevant wie Langzeitstatistiken über Transportrouten.  

Ebenso setzen die mathematischen Methoden präzise Daten über den Inhalt von Transporten voraus. Es reicht nicht zu wissen, ob ein Wein beim Produzenten bestellt wurde, es muss auch die Information vorliegen, wann der LKW mit der Ware losgefahren ist. Falls die Ware beim Transport beschädigt wurde, sollte der Kunde nicht erst eine Stunde vor seiner Dinnerparty gefragt werden, ob es nicht auch ein anderer Wein sein könnte. Wird mit dem Kunden rechtzeitig gesprochen, kann der Lieferservice möglicherweise noch eine alternative Bezugsquelle finden und der Wein steht pünktlich um 20 Uhr auf dem Tisch. Oder das Optimierungsmodell beinhaltet Risikominimierung. Ein entsprechendes Szenario wurde daraufhin bei der automatischen Planung vorgesehen und kann durch aktuelle Daten rechtzeitig zum Einsatz gebracht werden.   

In diesem Sinne: Eine genaue Prognose und Optimierung ohne genaue und aktuelle Daten ist nicht möglich.  

Von den Einzelsystemen auf die Prozesssicht 

Ein weiterer wichtiger Aspekt ist, dass die Daten zueinander passen müssen. z.B. reicht es nicht zu wissen, dass ein Wein beim Winzer bestellt wurde und dass gerade ein LKW beim Winzer Wein abtransportiert hat. Es ist auch wichtig zu wissen, ob der bestellte Wein in dem Transport enthalten ist und natürlich in welcher Menge. D.h. die Daten aus den Einzelsystemen müssen auf die Prozesssicht abgebildet werden. Diese Einzelsysteme können vollkommen voneinander getrennt sein. Der Winzer und der Transporteur sind in der Regel unterschiedliche Firmen.  Im operativen Geschäft der einzelnen Akteure ist eine Prozesssicht nicht vorgesehen, die Quellsysteme haben ganz andere Anforderungen abzubilden.  

Eine zentrale Aufgabe ist es, diese partielle Sicht auf die Prozesssicht zu transformieren. Für die Auswertung der Logistik ist die Prozesssicht relevant und nicht die Quellsystemsicht der einzelnen Teilsysteme.  

Ohne Modellierung, keine Industriereife 

Data Engineering wird somit zum wesentlichen Bestandteil der Logistik. Es gibt kein industriereifes Engineering ohne Modellierung. In diesem Sinne steht bei uns das auf die Logistikkette ausgerichtete Datenmodell im Fokus. Der Tatsache entsprechend, dass es um sehr komplexe, aber auch sehr veränderliche Prozesse geht, modellieren wir mit Data Vault. Diese Art der Datenmodellierung ist gerade für ein agiles Umfeld gut geeignet. Die Data-Vault-Modellierung kann jedoch nicht die gesamte komplexe Fachlichkeit effizient abbilden. In diesem Sinne sind unsere Modelle wesentlich umfangreicher und verwenden sowohl diskrete Mathematik (z.B. Graphenmodelle) als auch Prozessmodellierung. 

Ohne Qualitätssicherung, keine Industriereife 

Fehlerhafte Daten zerstören die Prognosefähigkeit. Wir verwenden ein modellbasiertes Datenqualitätsmanagement. Das Modell stellt die Fachlichkeit dar und das Datenqualitätsmanagement hat die Aufgaben, die Daten bezüglich der Fachlichkeit zu prüfen und bei Abweichungen eine schnelle Klärung zu ermöglichen. In einer komplexen Datenlandschaft gehören fehlerhafte Daten zum Alltag. Ein modellbasiertes Datenqualitätsmanagement ermöglicht zuverlässigere Prognosen und Optimierungsmaßnahmen  

Elemente einer industriereifen Datenbasis für KI 

Aus den oben dargestellten Aspekten hat unsere Datenbasis die folgenden Kernelemente:  

  • Data Vault Modellierung zur Gewährleistung der Agilität der Modelle 

  • Erweiterte Modellierung zur umfangreichen Erfassung der Fachlichkeit 

  • Transformation der partiellen Datenquellen auf einen zusammenhängenden Prozessgraphen 

  • Überprüfen der modellierten Fachlichkeit durch Datenqualitätsmanagement 

Fazit

Präzise Prognosen in der Logistik sind für den Geschäftserfolg besonders wichtig und mit einer modernen KI und Datengrundlage bestens durchführbar Diese Kompetenzen sind unser Tagesgeschäft, welche wir in vielen Kundenprojekten gewinnbringend einsetzen. 

Falls Sie Interesse haben, laden wir Sie gerne zu einem Workshop ein, damit wir an konkreten Aufgaben aus Ihrem Tagesgeschäft Lösungen entwickeln können.

Melden Sie sich gerne bei uns. Wir freuen uns auf Ihre Nachricht.

Neuen Kommentar schreiben

Ihre E-Mail Adresse wird nicht veröffentlicht.

NEUESTE BEITRÄGE

Lasst uns in die Snowflake abtauchen | Umzug eines DWH auf eine Snowflake - Teil 5
09.09.2022

Lasst uns in die Snowflake abtauchen | Umzug eines DWH auf eine Snowflake - Teil 5

Christian Hagen

In den ersten Teilen der Blogreihe haben wir beschrieben, wie du DataStage Jobs von (beispielweise) Oracle auf Snowflake umstellen kannst. In diesem Teil wollen wir uns auf Besonderheiten und Probleme stürzen, die bei einem Schwenk von Oracle zu Snowflake auftreten können und die sich als „Schätzchen“ in den Jobs und manuellem SQL verstecken können.

Data Engineering
ITGAIN UX UI
08.09.2022

Wie wir deinen Benutzer glücklich machen können

Lea Brauner

„UI is the sadle, the stirrups and the reins. UX is the feeling you get being able to ride the horse“, hat Dain Miller, ein Web Developer, einmal gesagt. In anderen Worten heißt das, dass man zwar ein User Interface braucht, um ein Programm oder eine Software zu bedienen, das aber noch nicht heißt, dass es mit diesem User Interface auch Spaß macht, die Software zu bedienen. Denn beim User Interface, der Benutzeroberfläche, handelt es sich lediglich um die Schnittstelle zwischen dem Benutzer und der Maschine, die ihn zum Ziel navigiert. Über die Optik oder Benutzbarkeit sagt das jedoch noch nichts aus.

Applications
Lasttests mit Shift-Left-Verschiebung
31.08.2022

Lasttests mit Shift-Left-Verschiebung

Sören Schmock

Lasttests gehören gemäß ISTQB® zu den nicht funktionalen Tests, mit denen Zeitverhalten, Ressourcenverbrauch, Stabilität und Skalierbarkeit einer Software oder Webseite (im folgenden „Anwendung“ genannt) überprüft werden. Der Lasttest wird durch Testspezialisten durchgeführt, um unter anderem zu bestimmen, ob die Anwendung einer erwarteten oder für die Zukunft geplanten Anzahl von Benutzern in der Performance (z. B. Anzeigegeschwindigkeit) noch Rechnung trägt. Schließlich möchte niemand auf die lange Rückmeldung einer Anwendung warten müssen.

Expertise