Roadshow Analytics Lab 2019

Wissen generieren, Entscheidungen treffen, Aktionen umsetzen – alles bei immer höherer Geschwindigkeit und immer geringerer Fehlertoleranz. Die digitale Transformation erhöht den Wettbewerbsdruck auf Unternehmen. Doch der Weg von Rohdaten zu faktenbasierten Entscheidungen kann steinig und langwierig sein. Dabei hilft die Optimierung der Entwicklungsprozesse.

Der Schlüssel: die richtige Kombination und Anwendung von agilen Methoden, Automationslösungen und neuen Technologien. So kommen Sie schneller zu Analyse und Erkenntnisgewinn.

Facts

Begleiten Sie uns auf dem Weg von den Quelldaten bis zum analytischen Modell. Wir zeigen Ihnen anhand eines Anwendungsfalls Best Practices und Hands-on-Lösungen aus Data Warehouse Automation und Analytics in hybrider Datenarchitektur – und das alles in weniger als 8 Stunden.

Beginn jeweils um 11:45 mit dem Empfang und einer Stärkung, bevor wir mit dem Programm um 12:30 starten. Das Ende der Sessions ist für 17:30 geplant. Anschließend findet in einer gemütlichen Runde bei Speis und Trank ein reger Austausch mit offenem Ende statt.

Session 1

Die Autobahn zum Core DWH: von Data Discovery über das generierte Datenmodell zum ELT-Prozess

Anhand unseres Business Cases aus der Versicherungswelt steigen wir in die ersten Phasen des Entwicklungsprozesses ein und präsentieren live wesentliche Features und Vorteile bei der Anwendung eines DWA-Tools.

Data Warehouse Automation (DWA) konzentriert sich auf die Optimierung mehrerer Dimensionen des Entwicklungsprozesses und des Betriebs von DWH-Lösungen. Es werden Aufgaben aus Analyse und Design über die Implementierung bis hin zu Test und Deployment adressiert. Anforderungen an Nachvollziehbarkeit und Dokumentation werden bei der Wahl des richtigen DWA-Tools erfüllt.

Key Words: Discovery, Modellierung, Historisierung, Delta-Laden, Lineage, Änderungsmanagement

Speaker Bio - Sven Wiener Lead Consult Sven Wiener

Sven Wiener verfügt über hohe methodische und
technologische Kompetenz in Data-Warehouse-
und Business Intelligence-Themen. Herr Wieners
Spezialgebiet ist die Architekturkonzeption von
Enterprise DWHs sowie die logische und physische
Modellierung, insbesondere auf Basis von Data Vault
in agilem Umfeld.

 

Session 2

Jenseits der Autobahn: Lösungen für Business-Transformationen und automatisierten Betrieb via DevOps

Aufbauend auf unserem Business Case zeigen wir die Realisierung und Einbindung von individuellen Transformationen in ein DWA-Tool, die unabdingbar sind für die Implementierung eines Business Data Vault und eines Data Mart.

Datenintegrationsprozesse in Staging Area und Core DWH sind in der Regel charakterisiert durch wiederkehrende Muster, die sich gut automatisieren lassen. Um das Potenzial von DWA zu heben, bedarf es eines durchgehenden Konzepts und Lösungen für individuelle Transformationen.

Agile Projektmethodik erfordert über die reine Entwicklung der ELT/ETL-Prozesse hinaus die schnelle und flexible Bereitstellung z.B. neuer Entwicklungs- oder Test-Umgebungen. Dabei endet die Agilität häufig bei den Datenbanken. Wir zeigen Ihnen Automatisierungsszenarien ausgehend von der System- und Datenbankbereitstellung:

Key Words: Business Data Vault, Business-Transformation, DevOps und Continuous Deployment

Speaker Bio - Mathias Hoffmann Bereichsleiter Mathias Hoffmann

Mathias Hoffmann ist seit über 17 Jahren in IT-Projekten
überwiegend als Projektleiter und Datenbank-Architekt für
Kunden aus dem Banken- und Versicherungswesen tätig.
Als Bereichsleiter Operational Services ist er seit 2010 bei
ITGAIN verantwortlich für Managed Services und Consulting
in den Themen Datenbanken und Infrastruktur. Sein
Schwerpunkt der letzten Jahre ist der Aufbau eines agilen Servicebetriebs mithilfe von DevOps und ITSM.

 

Session 3

Analytics in hybrider Datenarchitektur – Konzeption und Realisierung eines Schaden-Vorhersagemodells im Data Lake

Im nächsten Schritt unseres Weges von der Quelle zur Aktion demonstrieren wir das Vorgehen, wie aus Daten der Data Lake Architektur ein Schaden-Vorhersagemodell konzipiert und reaisiert wird.

Die Auswertung strukturierter Unternehmensdaten mittels AI-Methoden liefert automatisierte Entscheidungen. Die Analyse der DWH Daten gemeinsam mit unstrukturierten Daten aus einem Hadoop Cluster führt im Ergebnis zu einer weiteren Anreicherung und Aufwertung der Erkenntnisse.

Thematisiert wird die Klassifikation der historischen Daten aus dem Versicherungs-DWH und die Anreicherung der Informationen mittels Text Mining auf einem News-Datensatz.

Das genutzte Werkzeug für die Integration der einzelnen Komponenten ist die KNIME Analytics Plattform.

Key Words: Data Lake, Architektur, KNIME, Prognose, Textmining

Speaker Bio - Thilo Boehmke Lead Consult Thilo Boehmke

Thilo Boehnke ist im Bereich Data Science und mit
verantwortlich für das Themengebiet Advanced Analytics.
In den Bereichen Data Mining und Predictive Analytics
entwickelt er Methoden, Vorgehensweisen sowie Workshops.
Sein Schwerpunkt liegt dabei in der Konzeption von individuellen
Analytics Lösungen. Aufgrund seiner mehrjährigen Beratertätigkeit
profitiert er von Erfahrungen in den Branchen Finanzen,
Tourismus und Industrie.

Session 4

Themen und Trends aus Texten erkennen und visualisieren – Natural Language Processing und Topic Modeling

Abschließend beschäftigen wir uns mit dem Thema Text Mining. Neben den strukturierten Unternehmensdaten aus dem Enterprise-DWH gewinnen unstrukturierte Daten für die Geschäftssteuerung an Bedeutung. Eine Möglichkeit ist die Datenablage in einem Hadoop Cluster, welche die Voraussetzung für eine effiziente parallele Datenaufbereitung ist.

Am Beispiel eines realen News-Datensatzes setzen wir unsere Reise von der Quelle zur Aktion fort. Wir präsentieren Ihnen mittels Natural Language Processing (NLP) die Aufbereitung von Texten für die weitere AI-gestützten Analyse.

Wir demonstrieren die Herausforderungen beim NLP und wie mittels AI-Methoden systematisch Wissen und Erkenntnisse aus unstrukturierten Texten gewonnen werden können.

Zudem zeigen wir, wie die gewonnenen Erkenntnisse als Wissensgraph visualisiert werden können. Die daraus abgeleiteten Trends lassen sich unter anderem zur Produkt- und Strategieentwicklung nutzen.

 Key Words: Hadoop, Artificial Intelligence, Textmining, Python, Topic Modeling, NLP

Speaker Bio Timo Schulz - Lead Expert Timo Schulz
 

Timo Schulz ist Berater mit Schwerpunkt Machine Learning
und Künstliche Intelligenz und verfügt über langjährige

Erfahrung u. A. in den Bereichen Data- und Text Mining,
Neuronalen Netzen und Deep Learning, sowie diversen
Clustering-Algorithmen und numerischen Optimierungsverfahren.

 

 

Speacker Bio Oliver Ilnicki - Lead Consult Oliver Ilnicki

Oliver Ilnicki ist Experte im Bereich Data Science,
statistischen Analysen und Optimierungsaufgaben.
In diesen Bereichen entwickelt er Methoden,
Vorgehensweisen, Workshops und ist zusätzlich zu
seiner Beratertätigkeit Dozent für Statistik und Referent
für das Thema Industrie 4.0. Sein Schwerpunkt liegt in
der Konzeption von individuellen Analytics Lösungen.
Aufgrund seiner mehrjährigen Beratertätigkeit profitiert
er von Erfahrungen in den Branchen Fertigung,
Biotechnologie und HR Management.

Anmeldung