Data Engineering

Den Schatz der Informationen heben

Den Schatz der Informationen heben. Durch flexible und skalierbare Datenplattformen. Mit Business Intelligence, Automatisierung, Big Data, Data Science, Internet of Things und KI in Echtzeit für Data Warehouses.
Wir
unterstützen unsere Kunden dabei, komplexe Daten nutzbar zu machen, zu analysieren und zu verstehen – mit dem Ziel, datenbasierte (Produkt-) Innovationen zu entwickeln. Unsere Mission ist es, den verborgenen Mehrwert in Ihren Daten hervorzubringen und aufzuweisen.
Sie wissen, welche Schätze in der Masse Ihrer Informationen
verborgen sind. Wir helfen Ihnen, diese Schätze zu heben, damit Sie Ihre Chancen ergreifen können.

Sie benötigen unsere Hilfe?

6

Top Themen

Konsequente Ausrichtung auf Kundenbedarf: BI Automatisierung, Big Data, Data Science, Internet of Things und KI in Echtzeit für DWH

7

Jahre

begleiten wir unsere Kunden im Durchschnitt: Ich würde lieber Geld verlieren, als das Vertrauen meiner Kunden. Robert Bosch

360

Best Practice Tage

für professionellen Kundeneinsatz: kontinuierliche Best Practice Entwicklnug in Datenintegration, DWH Architektur und Analytics.

105

Zertifizierungen

Unseren Kenntnisstand über Produkte und Technologien der Hersteller, sowie für methodische Kompetenz, lassen wir uns zertifizieren.

Unsere Leistungen

Data Vault

Artificial Intelligence & Analytics

Data Warehouses müssen flexibel und agil auf die Anforderungen von Fachabteilungen reagieren können. Eine Herausforderung für die IT-Abteilung, die zusätzlich durch das wachsende Datenvolumen, die Historisierung und die Performance erschwert wird. Die Lösung: ein Enterprise Data Warehouse mit Data Vault im Core von ITGAIN. Es ist extrem skalierbar, seine Architektur ist flexibel. Kombiniert mit einer Hub and Spoke Architektur ermöglicht es vieles, was bisher nur schwer zu machen war: Flexibilität, Reduzierbarkeit, einfache Integration der Geschäftsprozesse (Zeitachsen inklusive), Uni- und Bi-Temporalität und eine vollständige Nachvollziehbarkeit der Daten. Darüber hinaus ist Data Vault ein wesentlicher Baustein für ein agiles Vorgehen in Data Warehouse Projekten. Es ist der Grundstein für die schnelle und flexible Lieferung von Daten an die Fachabteilungen. Wir helfen Ihnen die Lösung zu finden, die zu Ihren Herausforderungen optimal passt!

Artificial Intelligence

Artificial Intelligence & Analytics

Der Bereich Künstliche Intelligenz (A.I.) ist kein isolierter Bereich, sondern eine Disziplin, die sich aus verschiedenen Teilen zusammensetzt und in immer mehr Feldern zum Einsatz kommt. Die Einsatzgebiete für A.I sind ebenfalls sehr vielfältig: Z.B. Steigerung der Produktivität durch Automatisierung, oder die (semi-)automatische Entscheidungsfindung bei betrieblichen Vorgängen.
Eine legitime Frage ist dabei, wie andere Methoden, z.B. (Advanced) Analytics, sich abgrenzen lassen. Ein generelles Problem dabei ist, dass es oft keine einheitlichen Definitionen gibt und selbst dann die Begriffe nicht immer gleich verwendet werden. Aus diesem Grund verzichten wir auf den Versuch und sagen einfach, dass die verschiedenen Analytics-Disziplinen ein zentraler Bestandteil von A.I. sind. In dem Sinne verstehen wir A.I. als die Menge aller notwendigen Methoden zur Umsetzung einer automatisierten Entscheidungsfindung oder Vorbereitung, was z.B. Data Governance, Analytics, Software-Engineering einschließt.
Da wir nicht glauben, dass A.I. nur ein „Hype“ ist, aber oft konsequentes Umdenken erfordert, um das Potenzial auszuschöpfen, helfen Unternehmen möglichst früh bei der Konzeption einer Strategie. Das schließt eine Beratung ein, wie A.I zum Einsatz kommen kann, bis zur Findung möglicher Use-Cases und deren konkrete Umsetzung.

Datenmodellierung

Methodenkompetenz

Eine der wichtigsten Komponenten Ihres Data Warehouses ist das Datenmodell. Wie eine Landkarte stellt es die Zusammenhänge zwischen den Geschäftsobjekten präzise dar und definiert, welche Daten für welche Reports bereitgestellt werden. Ein mächtiges Instrument für die Anforderungsanalyse und Dokumentation. Und ein Herzstück, das alles beeinflusst: den Ladeprozess, die Geschäftsregeln, die Historisierung und Auditfähigkeit sowie Data-Marts und Reporting. Ist das Design des Datenmodells wohldurchdacht, vereinfacht es die Entwicklung der Ladeprozesse und des Berichtswesens – und spart dadurch Kosten. Fehler hingegen beeinträchtigen den Wert Ihrer Daten erheblich und sind im Nachhinein nur aufwendig zu beheben. Unsere Spezialisten haben viele Jahre Erfahrung in der Datenmodellierung. Greifen Sie darauf zurück. Es lohnt sich.

BI & DWH Architektur

Artificial Intelligence & Analytics

Business Intelligence ist der Prozess der Umwandlung von Daten in Informationen und Analytics der nächste Schritt zum Wissen und Mehrwert für ihr Unternehmen. Die technische Basis benötigt ein solides und in heutigen Zeiten auch ein flexibles agiles Design. Anforderungen, welche durch unsere Architekten für Sie in die passende konstruktive Lösung umgesetzt werden. Dazu gehören umfassende Blue Prints und Best-Practice Vorlagen aus den vergangenen Vorhaben. Lassen Sie sich durch unsere Architekten zu einem moderneren Design und Architektur überzeugen.

Moderne Data-Warehouse Entwicklung mittels Automation

Architektur und Infrastruktur

Klassische manuelle Datenbankmodellierung ist zeitgemäßen Projektumfängen und Datenmengen nicht mehr gewachsen. Sie bindet Entwickler und treibt die Kosten in die Höhe. Außerdem ergeben sich daraus Probleme bei der Softwareentwicklung und Wartung, die Data-Warehouse-Projekte stocken lassen. Deshalb ist ein gewisse Automation gefragt. Mit unseren bewährten Methoden zur Effizienzsteigerung verbessern wir zudem auch Ihre integrierten Data-Warehouse-Prozesse.

DWH Modernisierung

Digitale Transformation

Data Warehouses und Business-Intelligence-Umgebungen müssen regelmäßig überholt werden, sonst sind Performance-Probleme oder gar der Ausfall sicher. Wichtige Geschäftsdaten, Analysen und Berichte stehen dann nicht mehr zur Verfügung. Wir bei ITGAIN sind Ihre Spezialisten für das Data Warehouse Refactoring. Durch kontinuierliche Analyse und Optimierung der Programmstruktur erleichtern wir die Wartung des Quellcodes und erhöhen seine Effizienz. Damit sorgen wir nicht nur für exzellente Performanz, sondern eröffnen Ihnen Raum für neue Datenquellen, aufschlussreiche Berichte und Analysen.

Relevante Stories

Relevante News

Neuronales Netz - ist dies eine Black Box?

03.06.2019

Anlässlich unseres Vortrags auf der AI4U[1] im Juni möchten wir die Gelegenheit nutzen, nochmal das Thema Erklärbarkeit im Bereich Machine Learning zu motivieren und auf deren Bedeutung hinzuweisen. Bereits letztes Jahr im Juli haben wir auf der IJCAI Konferenz[2,3] unsere Erkenntnisse präsentiert, wo es u. a. darum ging, wie einzelne Datenpunkte die Stabilität eines Modells beeinflussen können. Die stetigen Erfolge von Neuronalen Netzen sind mit einem Preis verbunden, nämlich das Millionen von Parametern und Dutzende von Schichten notwendig sind, um anspruchsvolle Aufgaben zu lösen. Diese steigende Komplexität erfordert viel Fachwissen für eine korrekte Umsetzung, dass auf der anderen Seite trotzdem nicht ausreicht, um genau zu erklären, wie alle Komponenten in Netzen zu der eigentlichen Entscheidung kommen. Hier handelt es sich im wahrsten Sinne des Wortes um eine Blackbox. Ein kürzlich herausgegebener Leitfaden[4] für das Training von Neuronalen Netzen unterstreicht ebenfalls die Wichtigkeit, dass es notwendig ist, zu verstehen, wie Netze im Inneren funktionieren. Allerdings ist die Motivation hier, dass kleinere Fehler bei der Implementierung möglicherweise nicht erkannt werden und dadurch die Genauigkeit des Netzes -marginal- verschlechtern. Um solche Fehler aufzudecken ist es hilfreich, die inneren Abläufe zu visualisieren, um die Chance zu erhöhen, Anomalien aufzudecken. So ist es möglich, dass eine z. B. eine Teilmenge einer Kategorie wesentlich schlechter abschneidet, weil möglicherweise ein Fehler in der Vorverarbeitung stattgefunden hat. Die mittlere Genauigkeit des Netzes kann dennoch gut sein, sodass das Problem erstmal gar nicht auffällt. Ein Debugging zu einem späteren Zeitpunkt ist ohne ein tieferes Verständnis der Blackbox oft eine Herausforderung, weshalb auch hier die Erklärbarkeit ein wichtiger Aspekt ist. Ein weiteres Beispiel ist der Bereich der Medizin, wo es von großer Bedeutung ist, dass Netze die richtigen Aspekte der Daten nutzen, um korrekte Vorhersagen zu treffen. So wäre es fatal, wenn Modelle sich auf Nebensächlichkeiten stützen, die zwar zufälligerweise bei einer Kategorie vorhanden sind, aber dennoch unwesentlich für eine korrekte Prognostizierung des Krankheitsbildes. Insgesamt gibt es viele Gründe, sich mit der Erklärbarkeit zu beschäftigen, sei es, weil es gesetzlich vorgeschrieben ist, um ein Modell zu verbessern oder als Form der Qualitätssicherung, bzw. um das Vertrauen in die Technologie zu stärken. Als Berater wissen wir, wie wichtig das Vertrauen von Kunden ist und deshalb versuchen wir aktiv mitzuwirken, dass Vertrauen in A. I. zu stärken, indem wir versuchen transparent zu machen, wie unsere A. I. Modelle zu einer Entscheidung kommen.     [1] <https://www.ai4u-konferenz.de/speaker/timo-schulz/> [2] <http://home.earthlink.net/~dwaha/research/meetings/faim18-xai/>              [3] <https://arxiv.org/abs/1807.07404> [4] <https://karpathy.github.io/2019/04/25/recipe/>

Ein Blick in die Blackbox: Erklärbarkeit von Neuronalen Netzen

23.05.2019

Aufgrund der steigenden Komplexität von Neuronalen Netzen wird es immer erfolgskritischer zu verstehen, wie Entscheidungen zustande kommen und warum: Sei es zur Fehleranalyse, zur Verbesserung der Transparenz, oder um die Akzeptanz in die Technologie zu stärken. Gerade bei Neuronalen Netzen macht die Anzahl an Parametern und Schichten eine einfache Interpretation von Ausgaben oft schwierig, oder unmöglich. Aus diesem Grund sollen Möglichkeiten mit Praxisbeispielen vorgestellt werden, die zeigen, wie konkret Neuronale Netze zu einer Entscheidung kommen und warum. Der Vortrag richtet hauptsächlich sich an technisch Interessierte und Praktiker, die einen Überblick der Methodik gewinnen wollen und letztendlich soll ein einfacher Leitfaden gegeben werden. Weiteres zum Session können Sie hier lesen. Wo? Auf der Konferenz für künstliche Intellgence Die AI4U „AI for YOU“ ist eine Konferenz, deren Zielsetzung in der Förderung anwendungsorientierter Forschung in den Bereichen Künstliche Intelligenz (KI) und Maschinelles Lernen (ML) liegt und in deren Fokus die KI als Technologie für den Menschen steht. Überzeugen Sie sich selbst von der Vielfalt des Programms und investieren Sie in Ihre Weiterbildung: www.ai4u-konferenz.de Wir freuen uns auf Ihren Besuch.

TDWI – Unser Showcase - In 4 Sessions zum analytischen Modell

17.05.2019

letztes Jahr hat ITGAIN einen Blick in die Zukunft gewagt und gezeigt, wie Künstliche Intelligenz und Big Data Analytics unser Leben verändern könnte. In diesem Jahr geht die Geschichte weiter: Wir zeigen eine vollständige Strecke für Analytics, wie mittels AI-Methoden systematisch Wissen und Erkenntnisse aus unstrukturierten Texten gewonnen werden können. In 4 Sessions zum analytischen Modell Begleiten Sie uns auf dem ITGAIN-Tag auf dem Weg von den Quelldaten bis zum analytischen Modell. Wir zeigen Ihnen anhand eines Anwendungsfalls Best Practices und Hands-on-Lösungen aus Data Warehouse Automation und Analytics in hybrider Datenarchitektur – und das alles in weniger als 8 Stunden. Der Schlüssel: die richtige Kombination und Anwendung von agilen Methoden, Automationslösungen und neuen Technologien. So kommen Sie schneller zu Analyse und Erkenntnisgewinn. Die Agenda für den 25. Juni sieht diese Vorträge vor: 09:00 – 10:15   Die Autobahn zum Core DWH: von Data Discovery über das generierte Datenmodell zum ELT-Prozess.   10:45 – 11:30    Jenseits der Autobahn: Lösungen für Business-Transformationen und automatisierten Betrieb via DevOps. 12:15 – 13.00    Keynote 14:45 – 15:30   Themen und Trends aus Texten erkennen und visualisieren – Natural Language Processing und Topic Modeling 15:30 – 16:15   Analytics in hybrider Datenarchitektur – Konzeption und Realisierung eines Schaden-Vorhersagemodells im Data Lake Der Showcase Analytics Lab ist auch als Roadshow unterwegs: Falls Ihnen der Weg nach München zu weit ist: Diese Veranstaltung führen wir in der zweiten Jahreshälfte in unseren Niederlassungen in Hamburg, Hannover und Mannheim durch. Im Dezember treten wir zudem mit dem Showcase an den IT-Tagen-Frankfurt auf. Melden Sie sich an und erleben Sie uns live! Details und Termine dazu finden Sie auf der Veranstaltungsseite.    

Ist Datenmodellierung noch wichtig?

30.10.2018

Wie Sie das Optimum aus Ihren Daten herausholen! Modellierung leicht gemacht - Konzeptuelle, logische und physische Datenmodelle ermöglichen, ein Verständnis der Geschäftsregeln zwischen den Geschäftsobjekten abzubilden. Mehr darüber und dazu: https://bit.ly/2Jr6tjI Und interessiert? Dann auf zum Unterricht: https://bit.ly/2OfP1zu - ITGAIN AKADEMIE Wissen sichern, Erfahrung weitergeben.

Ist Datenmodellierung noch wichtig? Wie Sie das Optimum aus Ihren Daten herausholen.

13.08.2018

Datenmodellierung und Datenmodelle sind auch in der heutigen Zeit wichtige Komponenten des Daten-Managements. Gerade in dem Zeitalter spaltenorientierte Datenbanken und agiler Softwareentwicklung. Das Thema Datenmodellierung fristet auch in der modernen IT-Welt oftmals noch ein gewisses Schattendasein, obwohl es eigentlich zu den essenziellen Disziplinen moderner, datenbankbasierter Anwendungsentwicklung gehöre sollte. Ein Verzicht auf ein sauberes Datenmodell führt zu ernsthaften Komplikationen bei einer künftigen Pflege und Integration, da sich die Umstände heutzutage mit großem Tempo verändern. Bei einem relationalen Datenbank-Managementsystem (RDBMS) ähnelt das Datenbankdesign hinsichtlich der Struktur ziemlich dem logischen Datenmodell. Die Bereiche, in denen ein RDBMS Datenbank-Design sich von seinem logischen Datenmodell unterscheidet, haben ihre Ursache in erster Linie in den Leistungsänderungen oder den Auswirkungen von Werkzeugen. Ist die Datenbank hingegen eine NoSQL Datenbank, kann sich das Datenbankdesign hinsichtlich der Struktur deutlich vom logischen Datenmodell abweichen. NoSQL-Datenbanken ermöglichen, neue Felder genauso problemlos einzufügen wie wir Daten einfügen. Das nennt sich „Schema-less“ oder „Schema lite“, und dies ermöglicht es uns, Datenbanken leichter und iterativ aufzubauen, bevor wir das Datenmodell abschließen. Die Modellierung bildet letztlich das Herzstück des zugrundeliegenden Datenbankdesigns und des zugehörigen Datenmanagements. Dies gilt sowohl für operative Anwendungen, als auch für Business Intelligence bzw. Data Warehouse Systeme. Ein sauberes und konsistentes Datenmodell ist die Basis für eine stabil und performant laufende IT-Anwendung und sorgt in unserer heutigen, datengetriebenen Welt für einen reibungslosen Ablauf von Geschäftsprozessen. Es trägt somit unmittelbar, wenn auch sozusagen „unter der Motorhaube“, zum Geschäftserfolg eines Unternehmens bei. Die „Data Modeling Master Class“ von Steve Hoberman ist eine der wenigen öffentlich angebotenen Schulungen im deutschsprachigen Raum, welche das Thema Datenmodellierung mit all seinen Facetten umfassend behandelt. Entwickelt wurde sie von einem der weltweit führenden Experten, Steve Hoberman, auf diesem Gebiet, der hiermit sein Wissen und seine langjährige praktische Erfahrung gebündelt weitergibt. Die Schulung richtet sich sowohl an interessierte Anfänger, die einen möglichst leichten Einstieg in das Thema Datenmodellierung bekommen möchten, als auch an fortgeschrittene bzw. erfahrene Datenmodellierer, die ihre Kenntnisse vertiefen oder auch neue Aspekte der Datenmodellierung kennenlernen möchten. Es werden sämtliche Kenntnisse und Fertigkeiten zum Erstellen und Bewerten von Datenmodellen inklusive der theoretischen Grundlagen praxisnah und anschaulich vermittelt. Ferner erhalten die Teilnehmer entsprechendes begleitendes Unterrichtmaterial, welches sie danach auch in ihrer täglichen Anwendungspraxis einsetzen können, um ihre in der Schulung erworbenen Kenntnisse und Fähigkeiten zukünftig erfolgreich einsetzen zu können.   Vom 20. bis zum 22. Februar 2019 ist es wieder soweit! Dann findet unsere nächste Schulung in Hamburg statt. Wir freuen uns auf Ihre Teilnahme! Weitere Informationen zu Kursinhalten, Terminen, Konditionen sowie zur Anmeldung sind unter https://www.itgain-consulting.de/akademie/datamodeling-master-class zu finden. Auf Anfrage kann diese Schulung auch In-House durchgeführt werden. ITGAIN Akademie – Wissen sichern, Erfahrung weitergeben.

Instabilitäten von A.I.-Modellen bei großen Datenmengen

23.07.2018

Dies ist eine Zusammenfassung des Papers „Analyzing Hypersensitive AI: Instability in Corporate-Scale Maching Learning“, das auf dem Workshop „Explainable Artificial Intelligence (XAI)“ in Stockholm am 13. Juli 2018 präsentiert wurde [https://arxiv.org/pdf/1807.07404.pdf]. Künstliche Intelligenz hat in den letzten Jahren rasante Fortschritte gemacht, was dazu führte, dass immer mehr Entscheidungen in Unternehmen entweder direkt von A.I.-Modellen getroffen werden, oder zumindest bei der Findung von Entscheidungen eine wichtige Rolle spielen. Umso wichtiger ist es, dass diese Entscheidungen transparent und nachvollziehbar sind. In einigen Bereichen, wie der Medizin, ist es sogar vorgeschrieben, dass A.I.-Diagnosen von Menschen verifiziert werden können und keine „Black Box“ darstellen. Weiterhin ist es aber auch wichtig, dass Modelle bei minimalen Änderungen relativ stabile Entscheidungen liefern. Der Sachverhalt soll mit einem Beispiel aus dem Bereiche eCommerce deutlich gemacht werden. In der heutigen Zeit ist es fast schon selbstverständlich, dass in Webshops Empfehlungen verwendet werden, um entweder gezielt Produktvorschläge zu generieren, oder etwas allgemeiner, ähnliche Produkte direkt anzuzeigen. Als Quelle für solche Vorschläge ist es möglich, direkt den Warenkorb zu analysieren, oder zu speichern, welche Produkte von einem Kunden zusammen angeschaut wurden. Aufgrund dieser Daten ist es dann möglich, ein Modell zu trainieren, das es erlaubt zu jedem Produkt ähnliche Produkte zu finden. Selbstverständlich darf es nicht passieren, dass z.B. für eine Jacke ein Toaster als ähnlich ausgewählt wird, wenn diese nie zusammen gekauft, oder nie in einer Sitzung zusammen angezeigt wurden. Allgemein sollte ein Modell bei minimalen Änderungen in der Eingabe stabile Ergebnisse erzeugen, dahingehend, dass sich ähnliche Artikel kaum ändern. [Diese Annahme setzt allerdings voraus, dass mögliche Störfaktoren in der Eingabe zu vernachlässigen sind, z.B. sogenannte Bots, wurden bereits herausgefiltert.] Darauf aufbauend wurde ein Experiment durchgeführt, dass die anonymen „Clicks“ von Kunden über einen festen Zeitraum betrachtet, mit dem Ziel zu untersuchen, welche Auswirkungen minimale Änderungen in der Eingabe haben. Dazu wurde jeweils eine Kunden-Sitzung zufällig entfernt und das Modell neu berechnet. Verglichen wird dann die Ausgabe aus dem unveränderten Basis-Modell mit dem Modell, bei dem genau eine Sitzung ausgelassen wurde. Für eine Auswertung wird jeweils die Überlappung von ähnlichen Produkten betrachtet, wobei eine fest gewählte Menge an Produkten verwendet wird. Die akkumulierte Überlappung wird dann mit dem Mittelwert gebildet. Die Ergebnisse des Experiments sind überraschend, da nur eine ausgelassene Sitzung bereits dazu führen kann, dass die mittlere Überlappung stark abnimmt. Das bedeutet konkret, dass selbst eine Sitzung mit nur wenigen Produkten erheblichen Einfluss auf das endgültige Modell hat. Anders formuliert, Sitzungen scheinen einen unterschiedlichen Wert für das Modell zu haben, wodurch abhängig von dem Wert stärkere Schwankungen auftreten, die zu Instabilitäten führen können. Deshalb war es das Ziel, die verantwortlichen Faktoren zu isolieren, genau zu beschreiben und falls möglich, Änderungen vorzuschlagen, um dem entgegenzuwirken. Das Fazit ist aber, dass dieses Phänomen nicht nur auf den Bereich eCommerce beschränkt ist, sondern praktisch in jedem Bereich auftreten kann. Besonders dann, wenn Modelle auf Neuronalen Netzen basieren, die derzeit eine sehr hohe Verbreitung haben. Deshalb wird es immer wichtiger, den Wert einzelner Daten messen zu können, aber auch zu verstehen, wie der Einfluss von Daten sich auf ein Modell auswirkt, im Hinblick darauf, mögliche Instabilitäten besser verstehen zu können."

ITGAIN@TDWI: KNIME zum Anfassen.

18.06.2018

Clusteralgorithmus für Churn Prevention – lassen Sie sich dies auf der TDWI zeigen und diskutieren Sie mit uns, wie ein Einsatz pragmatisch machbar ist. Einfach machen! Wo? TDWI 2018 München; Wann? 26.-28. Juni 2018 Stand #52 Unser Ziel: "Kompetenz gewinnbringend einsetzen.“ - Probieren Sie uns aus! Neben dem „Was“ finden Sie auch in dem Artikel "Die Lücke im System" das „Wie“ zu einem System, um Informationen passend zu Ihren Anforderungen zu erschließen. Hier geht es zum Artikel: Die Lücke im System – Informationen aus Analysen gewinnen. Eine Geschichte wie es in der Zukunft sein wird und Hinweise wie dies zu erreichen ist. Wir versetzen Sie gerne in die Lage, auf dem digitalen Spielfeld erfolgreich zu sein. Projekt anfragen – auch in Ihrer Nähe.

„Bitte erklären Sie einem 10-Jährigen…“: Churn Prevention

27.04.2018

Analytics ist ein kompliziertes Unterfangen. Es geht dabei um Datensammlungen, knifflige Algorithmen und Hypothesen in wenig anschaulichen Programmiersprachen. Keine Lust, da durchzusteigen? Verständlich. Es gibt aber etliche Anwendungsmöglichkeiten, durch die Unternehmen von Analytics profitieren können. Eine davon ist Churn Prevention – oder, auf gut Deutsch: Kündigungen verhindern. Wir haben unseren Analytics Consultant Thilo Boehnke gebeten, das Ganze so zu erklären, dass es wirklich jeder versteht. Sogar ein 10-Jähriger. Die Ausgangssituation ist einfach: Stell dir vor, du bist Landwirt und hast einen Marktstand, an dem du jeden Samstag auf dem Wochenmarkt frisches Gemüse verkaufst. Weil du ein tüchtiger Geschäftsmann bist, bietest du deinen Kunden ein Abonnement an: Eine ganze Tüte voller Obst, Gemüse und Kräutern zum Preis von 15 Euro. 30 Kunden haben dieses Abo abgeschlossen und kommen nun wöchentlich vorbei, um ihre Tüte abzuholen. Du kennst sie alle persönlich und weißt auch, wer lieber Äpfel als Birnen mag. Eines Tages kommt Sarah so wie jeden Samstag an deinen Stand, nimmt ihr Gemüse entgegen und macht ein betretenes Gesicht. Sie möchte ihr Abonnement kündigen. Ein paar Stände weiter hat sie einen Bauern gefunden, bei dem sie für das gleiche Geld Biogemüse bekommt. Dass du jetzt einen Kunden und damit 15 Euro pro Woche weniger hast, ist natürlich nicht gut für dein Geschäft. Hättest du gewusst, dass Sarah Biogemüse gut findet, hättest du ihr vielleicht ein Angebot gemacht, mit dem sie trotzdem bei dir geblieben wäre. Du hättest ihr zum Beispiel die Tüte für 10 statt für 15 Euro geben können. Aber woher hättest du wissen sollen, wer von deinen 30 Abokunden überlegt zu kündigen? Keine gute Idee wäre jedenfalls, sicherheitshalber allen die gleiche Tüte für nur 10 Euro anzubieten, wo doch die meisten unter ihnen immer noch mit deinem Angebot zufrieden sind. Das wäre noch schlechter für dein Geschäft als einen einzigen Kunden zu verlieren. Deine Neugier ist geweckt und du schaust in dein Heftchen, in dem du alle deine aktuellen und früheren Abonnenten mit Namen und Vorlieben notiert hast. Wer sind die Risikokandidaten? Ist es Oma Else mit dem Hut? Oder Frank Meister, der immer erst kurz vor Schluss kommt? Reine Spekulation, so hat das keinen Zweck. Klüger ist es nachzuforschen, ob in der Vergangenheit vielleicht schon mal jemand sein Abo bei dir gekündigt hat, der ein bisschen so ist wie Sarah. Vielleicht kannst du ja dann verhindern, dass jemand wie Sarah in Zukunft dein Gemüse nicht mehr will. Weil du nicht auf den Kopf gefallen bist, überlegst du vorher: Wie viele Kunden musst du vom Kündigen abhalten, damit sich das Angebot lohnt? Die Antwort ist leicht: mindestens einen, denn jeder Kunde zählt. Es wird aber eine ganze Weile dauern, bis du dein Heftchen durchforstet hast. Und Zeit ist Geld. Du wägst also ab: Was verliere ich, wenn einer geht? Und was gewinne ich, wenn einer bleibt, aber fortan weniger zahlt? Und wie viel Zeit muss ich investieren, damit einer bleibt? Du kommst zu dem Schluss, dass wenn noch fünf weitere Kunden überlegen, das Abo zu kündigen und du drei von ihnen mit dem 10-Euro-Angebot abhalten kannst – dass sich dann Aufwand und kleine finanzielle Einbußen lohnen. Und siehe da: Natürlich ist Sarah nicht die erste. Da war vor einiger Zeit doch Peter, der mit dem Jutebeutel, der keine Kartoffeln mochte. Genau wie Sarah wollte er sein Gemüse nicht in einer Plastiktüte, sondern es lieber direkt in den Jutebeutel. Du blätterst dein Heftchen durch und zählst nach: Wie viele deiner Kunden haben in den letzten fünf Jahren ihr Abo abbestellt, die ihr Gemüse nicht in einer Plastiktüte wollten? Die meisten sind immer noch deine Kunden, alleine daran kann es also nicht liegen. Aber wenn du dich recht erinnerst, war Peter auch in etwa so alt wie Sarah, Ende 20, Anfang 30. Also gehst du nochmal durch dein Heft und findest vier weitere Kunden, die ihr Gemüse nicht in der Plastiktüte wollten und in einem ähnlichen Alter wie Peter und Sarah gewesen sein dürften. Und mehr noch: Drei von ihnen haben auch gekündigt. Ob die nun jetzt alle lieber Biogemüse mögen? Wahrscheinlich. Plastiktüten mögen sie jedenfalls nicht. Als nächstes schaust du dir deine aktuellen Kunden genauer an. Oma Else und Frank Meister nehmen deine Plastiktüten immer gerne. Aber Anna, Paul und Hendrik, die haben auch diese Jutebeutel-Angewohnheit und sind um die 30 Jahre alt. Außerdem hast du Anna und Paul auch schon mal beim Nachbarn Bioäpfel kaufen sehen. Am nächsten Samstag sprichst du die drei an. Ob sie, weil sie deine treusten Kunden sind, wohl Interesse daran haben, jede fünfte Gemüseladung kostenlos zu bekommen? Sie nehmen an.  Das ist nicht nur toll für dein Geschäft, sondern auch gut für deine Laune. Und damit in Zukunft vielleicht noch mehr Sarahs, Annas und Pauls deine Gemüsetüte kaufen, könntest du ja vielleicht mal nachrechnen, ob sich der Verkauf von Biogemüse für dich lohnt…

Die Welt in 17 Jahren - ITGAIN wagt einen Blick in die Zukunft

16.04.2018

Wie werden Künstliche Intelligenz und Big Data Analytics unser Leben verändern? Wie werden sie unsere Entscheidungen, wie unseren Berufsalltag beeinflussen? In einer kurzen Science-Fiction-Story mit dem Titel „Die Lücke im System“ gibt die ITGAIN Consulting Gesellschaft für IT-Beratung mbH einen kurzen, spannenden Blick in die Zukunft. Eine Geschichte, die einiges über Chancen und Risiken verrät – und sehr viel darüber, was KI und Analytics heute können und was nicht. Hier geht es zur Geschichte - Die Lücke im System. Viel Spaß beim Lesen - Tipps und Infos finden sich dazu in den kleinen Abschnitten neben der Story. Wie Sie und Ihr Unternehmen von KI und Analytics profitieren können? Lassen Sie sich von uns beraten. Hierzu sind die zwei folgenden User-Stories hilfreich: Predictive Analytics per Mausklick: KNIME im Härtetest. Ab in die Wolke. Für ein Gespräch können Sie uns gerne unter analytics@itgain.de kontaktieren oder rufen Sie uns einfach an. Unter Kontakt finden sie die jeweiligen Geschäftsstellen in Ihrer Nähe.

„Wie finde ich das passende Analytics-Tool?": 6 Tipps

09.04.2018

Mit Business-Analyse-Tools kann man aus Unternehmensdaten echte Schätze heben. Von Vorhersagen des Kundenverhaltens über schnellere interne Prozesse bis hin zu neuen Geschäftsbereichen ist vieles möglich. Nur, wie weiß ich, welches Analytics-Tool das richtige für mein Unternehmen ist? Dazu sind Kriterien nötig – und ein paar Tests. Die besten Analytics-Tools, gelistet vom IT-Forschungsunternehmen Gartner: Führend: KNIME, Alteryx, SAS, RapidMiner, H2O.ai Herausforderer: MathWorks, TIBCO Software Visionäre: IBM, Microsoft, Domino Data Lab, Dataiku, Databricks Nischenanbieter: SAP, Angoss, Anaconda, Teradat   Je nach Projektanforderung prüfen wir für Sie, welche Lösung die richtige ist. Folgende Tools kommen häufig in unseren Projekten zum Einsatz: KNIME, Python, R, SPSS, Rapidminer 6 Tipps: Sollten Sie noch kein genaues Ziel vor Augen haben, definieren Sie es. Wollen Sie ihrem Callcenter Echtzeitinformationen zur Verfügung stellen oder große Ratinganalysen fahren? Oder wollen Sie nur ihre Kundendaten besser ordnen? Für Letzteres brauchen Sie zum Beispiel kein Analytics-Tool, das sich künstlicher Intelligenz bedient.   Machen Sie eine Bestandsaufnahme ihres Unternehmens oder des Bereichs, der mit dem Analytics-Tool arbeiten soll. Beispiel Personal: Für Mitarbeiter mit Programmierkenntnissen kommen auch Tools infrage, die auf Scriptsprachen basieren. Soll dagegen künstliche Intelligenz per Mausklick genutzt werden, sind Lösungen wie KNIME die bessere Wahl.   Berücksichtigen Sie die Besonderheiten Ihrer Branche. Gerade im Finanz- und Versicherungsbereich gibt es strenge Regularien, die vorgeben, wie personenbezogene Daten gespeichert und verarbeitet werden dürfen. Hier spielt die europäische Datenschutzgrundverordnung eine wichtige Rolle.   Überlegen Sie genau, welchen Support Sie vom Anbieter der Lösung erwarten. Brauchen Sie 24-Stunden-Support? Ist Ihr Anbieter in der Nähe? Stehen ständig Releases an? Nutzen Sie etwa die Lösung eines Start-ups, kann es sein, dass das Tool nach ein paar Jahren nicht mehr weiterentwickelt wird.   Schauen Sie sich Ihre bestehende IT-Architektur an.   Nicht jede Datenbank kommuniziert problemlos mit dem gewünschten Tool. Außerdem stellt sich die Frage, ob die Leistung Ihrer vorhandenen Hardware ausreicht. Scriptbasierte Lösungen laufen in der Regel mit weniger Rechenpower als etwa nutzerfreundlichere Tools wie KNIME.   Testen, testen, testen. Der entscheidende Part ist die Praxis. Legen Sie, abgeleitet aus den oben genannten Punkten, Kriterien fest, die für Ihre Zwecke wichtig sind (Performance, Kommunikation mit der Datenbank, Fehlerbehebung, Usability etc.). Messen Sie jedes entlang einer Skala, zum Beispiel von 1-6. Im Idealfall vergleichen Sie die Werte nicht nur mit dem bestehenden Analysesystem, sondern testen es auch gegen andere Tools.

Analytics – Mythos und Wahrheit Teil II: Wie geht das eigentlich?

06.04.2018

Analytics bedeutet viel mehr, als einem Algorithmus beliebige Daten vorzuwerfen, und von ihm Prognosen zu erwarten. Wer Analytics betreibt, lässt sich auf einen komplexen Prozess ein, der gut strukturiert werden will. Nur so kann man ein ziel- und ergebnisloses Herumstochern im Datennebel verhindern – und viel Zeit und Ressourcen sparen. Analytics ist ein Werkzeug. Wie bei allen Werkzeugen kommt es auch hier auf den richtigen Gebrauch an. Er lässt sich in vier Phasen einteilen und beginnt, noch vor allem Digitalen, in der wirklichen Welt. Phase eins: ein Problem identifizieren, das groß genug ist Analytics-Projekte kosten Zeit und Geld. Damit sich der Aufwand lohnt, sollte man mit ihnen Fragen adressieren, hinter denen entweder große Kosten oder große Gewinnchancen stecken. Wenn Sie beispielsweise Ihrem Kundenstamm neue Produkte empfehlen, könnten Sie ihn mit einem wahllosen Angebot abschrecken. Bieten Sie ihm aber ausschließlich Dinge an, die er in seiner Situation wirklich gebrauchen kann, erhöht sich Ihre Chance auf neue Umsätze erheblich. In diesem Fall lohnt es sich sicherlich, die Zusammenhänge dahinter zu analysieren, um herauszufinden, welcher Ihrer Kunden gerade was benötigen könnte – um es ihm dann gezielt anzubieten. Phase zwei: Daten finden, aufbereiten und analysieren Weiß man, welches Ziel man mit einem Projekt verfolgt – zum Beispiel Bankkunden gezielt den passenden Kredit vorzuschlagen –, identifiziert man zuerst die Daten, die dazu gebraucht werden sowie die Quellen, in denen sie zu finden sind. Das können unternehmensinterne Daten beispielsweise aus bereits bestehenden Verträgen mit den Kunden sein. Aber auch zugekaufte, wie etwa Informationen darüber, wie groß die Haushalte in bestimmten Gegenden sind. Dann werden die Daten entschlackt und so aufbereitet, dass ein Algorithmus sie auch verstehen kann. Danach geht es ans Data Mining: Die Datenbasis wird mit dem Ziel untersucht, Zusammenhänge zwischen ihnen herauszufinden, die für das Problem relevant sind. Beispielsweise: Studienabsolventen in München nehmen kurz nach dem Abschluss ihres ersten Arbeitsvertrags häufig einen Kredit für den Erwerb eines Autos in Anspruch. Nun kommt der Algorithmus ins Spiel. Mit den entdeckten Zusammenhängen durchforstet er einen Testdatensatz, um zu sehen, wie genau er damit tatsächlich Autokäufer vorhersagen kann. Wenn die Fehlerrate noch zu hoch ist, verfeinert man Modell und Daten so lange, bis die Voraussagegenauigkeit hoch genug ist. Das Ergebnis ist ein fertiges Modell, das schließlich auf die Kundendaten angewendet werden kann, um Vorhersagen zu treffen. Phase 3: Businessregeln auf die Daten anwenden Am Ende dieser Prozedur steht ein Satz Businessregeln, welche Wahrscheinlichkeiten für bestimmte Fälle angeben, die für Ihre Frage relevant sind. Daraus ergeben sich die erhofften Voraussagen. Ein Beispiel: „Die Wahrscheinlichkeit, dass ein Student in München nach Abschluss seines ersten Arbeitsvertrags mit einem Jahreseinkommen zwischen 20.000 und 30.000 Euro einen Kredit für den Erwerb eines Autos in Anspruch nimmt, beträgt 60 %.“ Diese Regeln sind es, mit denen eine Software Kunden im Bestand einer Bank identifizieren kann, denen sie aktiv einen passenden Kredit vorschlagen sollte. Phase 4: aktiv werden Der letzte und gleichzeitig wichtigste Schritt in einem Analytics-Projekt ist, die Ergebnisse in Taten umzusetzen. Sonst ist es sinnlos. Wenn Kunden identifiziert wurden, die mit hoher Wahrscheinlichkeit ein bestimmtes Produkt gebrauchen können, dann muss es diesen auch aktiv empfohlen werden. Nur so erreichen Sie auch das Ziel, das Sie sich von Anfang an gesteckt haben.

Analytics – Mythos und Wahrheit Teil I: Die größten Irrtümer

06.04.2018

Mit Analytics ist es ein bisschen wie mit dem Internet in den frühen Neunzigern: Alle wollen dabei sein, aber keiner weiß warum. Kaum jemandem ist so richtig klar, was der Begriff überhaupt bedeutet und schon gar nicht, was man eigentlich mit diesem Werkzeug anstellen kann. Zeit, mit den größten Irrtümern aufzuräumen – und zu zeigen, wie Analytics wirklich funktioniert. Meist geraten bei heißen Themen in der digitalen Welt schnell Halbwahrheiten und falsche Prognosen in Umlauf. Man erinnere sich an Bill Gates: „Das Internet ist nur ein Hype.“ Wer immer das von Analytics behauptet, liegt ziemlich sicher genauso falsch. Aber welches sind die größten Fehleinschätzungen in Bezug auf Analytics? Irrtum Nummer eins: Algorithmen sind zahlgewordene Wahrsager Die große Stärke von Analytics sind Voraussagen. Algorithmen sind ein wichtiger Teil dabei. Allerdings funktionieren sie nicht „im luftleeren Raum“. Man kann ihnen nicht einfach Fragen über beliebige Personen oder Ereignisse in der Zukunft stellen. Eine Bank beispielsweise könnte voraussagen wollen, für welches ihrer Produkte sich ein Kunde mit großer Wahrscheinlichkeit als nächstes interessieren wird, um ihn gezielt darauf anzusprechen. Dann reicht es nicht, einem Algorithmus zu sagen, wie der Kunde heißt und an welchem Tag er geboren wurde. In den Daten, mit denen ein Algorithmus arbeitet, muss schon drinstecken, welche Art von Kunde in der Vergangenheit welche Produkte gekauft hat. Das muss vorher „gelernt“ und in Modelle verpackt werden. Erst damit lassen sich Wahrscheinlichkeiten ableiten und Vorhersagen treffen. Irrtum Nummer zwei: Analytics ist ein IT-Thema. Und nur ein IT-Thema Wenn ein Unternehmen Analytics betreiben möchte, muss auch das ganze Unternehmen mitmachen, sonst wird es damit scheitern. Denn Analytics ist kein Werkzeug, mit dem man Probleme aufdeckt, sondern ein Werkzeug, mit dem man Probleme löst. Schon die erste Aufgabe in einem Analytics-Projekt liegt deshalb in den Fachbereichen: die Identifikation eines Anwendungsfalls. Welche Probleme haben wir, die wir mit Analytics lösen könnten? Erst wenn diese Frage beantwortet ist, kann man sich Gedanken darüber machen, was analysiert werden soll. Wer den IT-Fachmann mit dieser Aufgabe allein lässt, riskiert, dass eventuell Erkenntnisse zutage gefördert werden, die dem Fachbereich schon längst bekannt sind. Irrtum Nummer drei: Analytics und Datenschutz vertragen sich nicht Personenbezogene Daten wie Namen und genaue Adressen sind für die meisten Analysen nicht wichtig. Interessant wird es eventuell bei der Postleitzahl, aber meistens reicht die Stadt schon aus. Und selbst wenn solche Informationen nötig sind: Sie können anonymisiert werden. Irrtum Nummer vier: Bevor wir mit Analytics anfangen können, muss unser Data Warehouse stehen Wer so denkt, läuft Gefahr, beim ersten Projekt zu bemerken, dass er zwar wunderbar strukturierte Daten hat, aber leider nicht die richtigen – und sein brandneues Data Warehouse wieder umbauen muss. Der Weg in das Zeitalter der Analytics ist ein stetiger Prozess der Verbesserung. Jetzt Teil II lesen: „Analytics: Wie geht das eigentlich?“

Ein See voller Informationen: der richtige Umgang mit Data Lakes

04.04.2018

Wer große Mengen unterschiedlicher Datenformen für Analytics nutzen will, kommt an Data Lakes kaum vorbei. Doch um die richtigen Daten zum Fließen zu bringen, ist beim Einrichten einiges zu beachten. Ansonsten kann aus dem See durchaus ein nutzloser Tümpel werden. IT Consultant Jens Lehmann erklärt, wie ein Data Lake strukturiert sein sollte. Herr Lehmann, parallel zu Data Warehouses nutzen immer mehr Unternehmen Data Lakes. Was ist eigentlich der Unterschied? In einem Data Lake werden große Mengen angelegt – also Big Data, die man so in einem Data Warehouse nicht speichern kann. Denn Data-Lake-Daten können im Rohzustand verbleiben. Und sie können aus unterschiedlichen Quellen stammen. Um im Bild zu bleiben: Ein Data Lake ist ein großes Gewässer, gespeist aus mehreren Zuflüssen. Ein Data Warehouse besteht eher aus vielen befüllten Behältern mit bereits gedruckten Etiketten. In welchen Anwendungsfällen ist Analytics per Data Lake denn sinnvoll? Vor allem wenn große Massen an Informationen mit herkömmlichen Mitteln nicht analysiert werden können. Viele Unternehmen haben Millionen von Sensordaten, Verkaufsinformationen oder Social-Media-Inhalten, die ein Data Lake gemeinsam speichern kann. Ok. Und wie sorge ich dafür, dass diese Daten zusammen nutzbar sind? Wie strukturiere ich einen Data Lake richtig? Man muss die Rohdaten mit zusätzlichen Merkmalen anreichern. Zum einen mit Metadaten, die verraten, von welchem Ort aus jemand auf eine Website zugegriffen hat. Zum anderen mit Metaprozessinformationen – sprich Infos darüber, wann und wo Daten generiert wurden. Bei einem Hersteller für Dichtungen heißt das: Welche Maschine hat die Dichtung um 14 Uhr hergestellt? Außerdem braucht es Kontextdaten, die Texteingaben von Kunden in Formularen oder E-Mails strukturieren. Denn ein Computer kennt zum Beispiel nicht den Unterschied, wann mit dem Wort „Bank“ das Geldinstitut oder die Sitzgelegenheit gemeint ist. Zu guter Letzt beschreiben Zuordnungshinweise die Beziehung zwischen Daten, also ob Abhängigkeiten zwischen Merkmalen bestehen. Reicht das, oder braucht es noch mehr Struktur? Es reicht nicht ganz. Viele Unternehmen häufen aus verschiedenen Abteilungen verschiedene Daten an. Sie sollten daher den großen Data Lake in Data Ponds unterteilen – also in kleinere Datenteiche, wenn man so will. Die Daten in den Teichen können aber dennoch durch die Metadaten miteinander verbunden werden. Was heißt das genau? Ausgehend von den beschriebenen Zusatzmerkmalen legt man Data Ponds an. Das heißt, analoge Daten, Textdaten und Prozessdaten bilden eigene Bereiche, Cluster genannt. Sie werden auch mit verschiedenen technischen Methoden zusammengefasst. Das ist Expertenarbeit. Aber am Ende sind die Daten nicht nur für Experten nutzbar, sondern für viele Mitarbeiter. Haben Sie ein Beispiel? Endanwender wie Verkaufspersonal oder Marketingexperten können Data Lakes nutzen. Sie finden schnell Zusammenhänge – zum Beispiel zwischen allen produzierten Dichtungen in der eben angesprochenen Produktion. Ist eine Charge fehlerhaft, kann man anhand ihrer Zusatzdaten sehen, welche Maschine sie wann produziert hat – und den Fehler finden. Oder man findet schnell eine Auflistung der häufigsten Kundenkommentare der letzten Monate zu einem Produkt. Klingt rechenintensiv. Was braucht es an Hardware, um mit Data Lakes zu arbeiten? Praktischerweise lässt sich ein Data Lake ohne aufwändige Rechnerarchitektur betreiben. Über das Open Source Framework Hadoop können in den Clustern viele Computer miteinander verbunden werden, die ihre Rechenleistung für den Data Lake zur Verfügung stellen. Haben Sie noch generelle Hinweise für den Nutzen eines Data Lakes? Es reicht nicht, den Data Lake mit Inhalten aus allen zur Verfügung stehenden Quellen zu fluten. Vielmehr sollte es darum gehen, die Möglichkeiten dieses Konzeptes richtig zu nutzen. Ohne Vernünftiges Information Lifecycle Management und entsprechende Governance wird dies nicht gelingen. Daher ist eine Vorab-Analyse der Ziele enorm wichtig.   Jens Lehmann, IT Consultant bei ITGAIN.

Analytics: einfach machen!

18.03.2018

Analytics ist derzeit einer der heißesten IT-Trends. Dabei gibt es die nötigen Algorithmen seit 30 Jahren. Erst jetzt jedoch sind ausreichend Rechenpower und Daten vorhanden, um sie nutzbar zu machen. Für den Erfolg eines Analyseprojekts entscheidend ist allerdings die Qualität der Datenbasis. Wir verraten Ihnen den Schlüssel zum Erfolg. Nur den Ergebnissen einer Analyse, die auf einem soliden Datenfundament beruhen, kann man auch trauen. Die entdeckten Auffälligkeiten könnten sonst nichts weiter sein als das Ergebnis einer Anomalie in den Daten. Was eine solide Datenbasis ist? Dafür gibt es eine einfache Grundregel: Gut ist eine Datenbasis, von der man genau weiß, was drinsteckt – und in welcher Form. Ein recht simples Kriterium. Um es zu erreichen müssen allerdings einige Voraussetzungen erfüllt sein. Zwei Schlüsselfaktoren für eine solide Datenbasis Bei Aufbau und Pflege einer guten Datengrundlage spielen erfolgreiche Data Governance und eine flexible Datenintegration eine Schlüsselrolle. Wenn Sie diese Prozesse im Griff haben, behalten Sie den Überblick. Dann wissen Sie, welche Daten Ihnen schon zur Verfügung stehen und welche in Ihrem Unternehmen eventuell noch „schlafen“. Ihnen ist bekannt, welche Verarbeitungsregeln auf die Daten angewendet werden und wie Ihre Geschäftsprozesse Datenseitig abgebildet sind. Außerdem gehen Sie sicher, dass neue Daten in der richtigen Qualität verwendet werden. Auf diesem Fundament lassen sich erfolgreiche Analytics-Projekte aufbauen. Data Governance: damit ist das Zusammenspiel von Datenqualität, Datenmanagement, Datenrichtlinien, Geschäftsprozessmanagement und Risikomanagement rund um den Umgang mit Daten gemeint. Dadurch halten Sie die Daten in Ihrem Unternehmen für alle verständlich. Datenquellen werden erfasst, die Art und die Ausprägung der Daten dokumentiert, die dort gesammelt sind. Zuständige für die Datenqualität werden benannt, Ansprechpartner für die verschiedenen Systeme definiert.   flexible Datenintegration: Neue Daten für ein Analyseprojekt müssen schnell in den Analysedatenbestand aufgenommen werden können. Das ist essenziell. Schließlich weiß man heute noch nicht, welche Daten sich zum Erreichen des Ziels der Analyse noch als sinnvoll erweisen könnten. Eventuell bewerten Sie Ihr Analytics-Projekt mittels einer Confusion Matrix monetär und wissen jetzt: Die Analysegenauigkeit muss erhöht werden, damit sich das Analyseprojekt auch lohnt. Also bedienen Sie sich, um die Datengrundlage zu vergrößern, bei Open Data Quellen oder kaufen Daten hinzu, etwa vom Statistischen Bundesamt. Diese Daten wollen Sie natürlich sofort verwenden und nicht Wochen oder sogar Monate auf die Bereitstellung warten. Achtung Datensilos: Datenintegration automatisieren Was die Integration angeht, werden heute noch allzu oft neue Daten direkt in den Bestand eines Analyseprojekts eingebunden und nicht – so eines existiert – in das Data Warehouse oder den Data Lake des Unternehmens. Eine schlechte Option. Denn damit bleiben sie in einem Silo vor dem Rest des Unternehmens versteckt. Will eine andere Abteilung eine Analyse durchführen, für die dieselben Daten ebenfalls nützlich wären, weiß sie unter Umständen nicht einmal, dass sie bereits im Unternehmen existieren. Häufiger Grund für diese Praxis: eine nichtautomatisierte Datenintegration in das Data Warehouse. Denn ohne ein Automatisierungstool dauert die Anbindung neuer Daten meist zu lang. Das Projekt würde auf inakzeptable Weise verzögert. Mit einer automatischen Datenintegration hingegen ist der Zeitaufwand nur unerheblich höher. Danach aber sind die Daten für das gesamte Unternehmen verwendbar. Ein nicht zu unterschätzender Nebeneffekt: Werden neue Daten in das zentral gemanagte Data Warehouse aufgenommen, unterliegen sie automatisch der Data Governance des Unternehmens. So sind sie für alle verständlich und transparent. Und dann: handeln! Die Datenbasis ist ein wesentlicher Punkt für das Gelingen eines Analyseprojekts. Sie ist das Fundament für verlässliche Analyseergebnisse. Wer es gelegt hat, hat bereits viel geschafft – und kann nun den nächsten Schritt folgen lassen: eine gut gebaute Analyse. Aber auch damit ist das Ziel noch nicht erreicht. Denn die Analyseergebnisse müssen praktisch nutzbar sein, sonst sind sie zwecklos. Beispielsweise muss eine Versicherung, die per Datenanalyse Kunden identifiziert, die mit hoher Wahrscheinlichkeit kündigen werden, diese Information dem Sachbearbeiter während seiner Telefongespräche zur Verfügung stellen. Handelt es sich beim aktuellen Gesprächspartner um einen potenziellen Kündiger, muss das im Dashboard angezeigt werden, sonst kann der Sachbearbeiter kein attraktiveres Angebot unterbreiten. Und hier zeigt sich ein weiterer Baustein eines gelungenen Analytics-Projekts: Kompetenzen in Systemintegration und Systembetrieb. Klein anfangen, groß rauskommen Wer ein Analytics-Projekt zu einem echten Erfolg machen möchte, muss also nicht nur die richtigen Grundlagen dafür schaffen, sondern auch dafür sorgen, dass die Ergebnisse richtig angewendet werden. Aber keine Angst! Unternehmen, die sich dafür entscheiden, mit Analytics zu beginnen, müssen nicht sofort ihre komplette IT-Infrastruktur und das gesamte Prozessmanagement auf den Kopf stellen. Tasten Sie lieber zunächst mit einem Projekt im kleinen Maßstab Ihre Assets ab. Und dann machen Sie Ihr Unternehmen Schritt für Schritt fit für das volle Potenzial der Analytics. Drei Fragen an Markus Burger-Scheidlin Data Scientist und Teamleiter Analytics bei ITGAIN Um ein Analytics-Projekt zum Erfolg zu führen, müssen sehr viele Dinge richtig gemacht werden. Ein Unternehmen, das gerade erst mit Analytics beginnt, kann sich da leicht überfordert fühlen. Muss es aber nicht. Wer mit Analytics anfangen möchte, muss nicht gleich alles auf einmal umkrempeln. Warum nicht? Wer alles auf einmal neu aufsetzt – Data Warehouse, Data Governance und so weiter –, bevor er sich an die Analysepraxis macht, geht ein hohes Risiko ein. Dann kann es sein, dass man beim Startschuss feststellt, jetzt zwar wunderbar aufbereitete Daten zu besitzen – aber leider die falschen. Wie stellt man also den Aufbruch in die Epoche der Analytics am besten an? Beginnen Sie mit einem kleinen Pilotprojekt. Dabei lernen Sie, was Sie bereits gut machen und was noch nicht. Eventuell haben Sie eine sehr gute Kundendatenbasis, aber eine schlechte Vertragsdatenbasis. Oder Sie merken, dass Sie Daten erfassen müssen, die Sie momentan noch nicht erheben. Verbessern Sie die Punkte, die Ihnen aufgefallen sind. Und dann gehen Sie an das nächste Projekt. So kommen Sie in einen stetigen Verbesserungsprozess.

Was ist ein „gutes“ Analytics-Projekt?

12.03.2018

Herr Burger-Scheidlin, durch Analytics können wir uns bei Entscheidungen von einer Maschine unterstützen lassen und sie damit auf Grundlagen stellen, die viel solider sind als alles, was der Mensch allein erreichen könnte. Das klingt, als ob wir darauf zumindest in wirtschaftlichen Fragen eigentlich nie verzichten sollten. Stimmt das? Markus Burger-Scheidlin: Die Möglichkeiten sind tatsächlich atemberaubend, und immer wieder hört man von unglaublichen Projekten wie AlphaZero. In der Praxis gibt es aber viele Analytics Projekte, die sich einfach nicht lohnen. Warum? Weil der Aufwand größer ist als ihr Nutzen. Ob das so ist, kann man nur von Anwendungsfall zu Anwendungsfall beantworten. Mit unserem ITGAIN Analytical Process beispielsweise können wir ein Analyseprojekt wirtschaftlich bewerten und schaffen einen konkreten Handlungsbezug. Das ist essenziell. Denn wenn die Erkenntnisse aus der Analyse zu keiner konkreten Handlung führen, sind sie zwecklos. Und wie kann man erkennen, ob ein Analytics-Projekt „gut“ ist? Die erste Frage lautet: Ist klar, welche konkrete Entscheidung unterstützt werden soll? Die zweite ist: Welche Handlung soll aus der Entscheidung folgen? Und schließlich muss man wissen, wie exakt eine Analyse überhaupt sein muss. Warum? Ist nicht eine Analyse umso besser, je genauere Vorhersagen sie liefert? Nein. Nehmen Sie eine klassische Investitionsentscheidung. Hier kann ich mit Prognosemodellen bis auf die x-te Nachkommastelle ausrechnen, wieviel „Return on Investment“ sie bringen wird. Das ist aber gar nicht notwendig. Es reicht schon aus, wenn ich herausfinde, dass ich damit in etwa 10 % Gewinn mache. Bereits mit dieser Information kann ich mich sehr gut begründet für die Investition entscheiden. Das beste Analytics-Projekt ist also immer dasjenige, dessen Prognose dem Ziel angemessen genau ist. Wie gestaltet man so ein angemessenes Analytics-Projekt? Stellen Sie sich vor, Sie sind eine Versicherung und Sie haben schon immer Direktmailings genutzt, um Ihren Kunden neue Produkte anzubieten. Der Rücklauf Ihrer Aktionen ist aber zuletzt zurückgegangen. Nun haben Sie gerade eine neue Versicherungspolice im Angebot und Sie setzen ein Analytics-Projekt auf, um die Mailing-Aktion dazu effizienter zu gestalten. Sie analysieren Ihre Kundendaten, um herauszufinden, welche Ihrer Kunden wahrscheinlich die neue Versicherung abschließen werden und welche nicht. Mit dem Ergebnis können Sie dann Ihre Zielgruppe einschränken, Mailingkosten sparen und die Rücklaufquote verbessern. Aber der Analyseaufwand, um die passenden Adressaten herauszufiltern, sollte nicht ausufern. Sonst ist das Projekt nicht mehr wirtschaftlich. Und wie erkenne ich, wann ich genug Aufwand betrieben habe? Nehmen wir an, Sie erwarten sich durch Ihr Analytics-Projekt eine Umsatzsteigerung von 500.000 Euro und sind bereit, 10 % davon in das Projekt zu investieren. Dann haben Sie ein konkretes Kriterium. Sie arbeiten also an dem Projekt, bis Sie die 50.000 Euro ausgegeben haben. Wenn Sie an diesem Punkt dann Kunden identifizieren können, die mit einer achtzigprozentigen Wahrscheinlichkeit die Versicherung kaufen werden, dann ist das Projekt sicherlich ausreichend gut. Das stimmt. Aber wie kann ich denn wissen, dass eine Umsatzsteigerung von 500.000 Euro zu erwarten ist? Wieviel Umsatz eine verkaufte Police bringt, ist ja klar. Aber auch wieviel es kostet, einen Flyer zu drucken und ihn zu verschicken und so fort. Außerdem wissen Sie, welcher Umsatz Ihnen entgeht, wenn Sie einen Kunden nicht ansprechen, der eigentlich gekauft hätte. Was Ihnen jetzt noch fehlt, ist das Wissen darüber, mit welcher Wahrscheinlichkeit Sie die richtigen Adressaten ansprechen werden und mit welcher Wahrscheinlichkeit die falschen. Und das sagt Ihnen Ihr Analytics-Modell. Am Ende können Sie einen Strich darunter ziehen und ausrechnen, welchen „Return on Investment“ Sie in etwa zu erwarten haben. Wie funktioniert das genau? Die zentrale Rolle dabei spielt die sogenannte Confusion Matrix. Diese gibt die Häufigkeit der zutreffenden und falschen Prognosen jeweils für positive und negative Vorhersagen wider. Damit entstehen vier Fälle, die individuell monetär bewertet und mit der Häufigkeit multipliziert werden. Die Summe der vier Fälle ist der Wert des Modells – in unserem Beispiel die 500.000 Euro Umsatzsteigerung. Aber nochmals: Dieser Wert kann nur dann realisiert werden, wenn Sie das Analytics-Projekt von vorne herein so angehen, dass dadurch auch eine konkrete Handlung folgt. Denn analysieren kann ich aus reiner Neugierde alles Mögliche und mit beliebig viel Aufwand. Verstehen Sie mich nicht falsch, zwecklose Neugierde ist etwas Wunderbares. Forscher, Künstler, Kinder können ohne sie nicht leben. Aber wenn es um wirtschaftliche Entscheidungen geht, ist sie Energieverschwendung. Markus Burger-Scheidlin ist Teamleiter Analytics bei ITGAIN Lesen Sie im nächsten Beitrag, welche fünf Punkte Sie beachten müssen, um aus Ihrem Analytics-Projekt ein „gutes“ Analytics-Projekt zu machen.

So setzen Sie ein „gutes“ Analytics-Projekt auf: 5 Tipps

08.03.2018

Es gibt eigentlich nichts, das man mithilfe von Analytics nicht prognostizieren könnte. Und auch der Genauigkeit sind dabei kaum Grenzen gesetzt. Aber nicht für jeden Zweck sind die genauesten Prognosen die besten. Ein „gutes“ Analytics-Projekt ist dasjenige, dessen Prognosegenauigkeit Ihrem Ziel angemessen ist. Um ein Analytics-Projekt aufzusetzen, das sich auch lohnt, sollten Sie also von Anfang an wissen, welches Ziel Sie damit verfolgen. Und über noch ein paar Dinge mehr sollten Sie sich im Klaren sein: Definieren Sie die Handlung, die Sie durch Ihre Analyse auslösen oder verändern möchten. … Denn das ist letztlich Sinn und Zweck eines jeden Analytics-Projekts: Handlungen auszulösen oder bestehende Prozesse zu optimieren. Wenn Sie das Ziel haben, die Effizienz Ihrer Direktmailings zu verbessern, also Kosten zu sparen und die Rücklaufquote zu verbessern, dann sollten Sie darauf bedacht sein, die Zielgruppe auf vielversprechende Kontakte einzugrenzen. So schicken Sie Ihr Informationsmaterial zum großen Teil nur noch an tatsächliche Interessenten. Nehmen Sie die Geschäftsprozesse Ihres Unternehmens ins Visier, hinter denen sich ein großes Volumen verbirgt. … Bei sehr kostenintensiven Prozessen beispielsweise bringt schon eine Verbesserung um wenige Prozentpunkten deutliche Einsparungen. Legen Sie im Vorfeld das „Gut genug“-Kriterium fest. … Damit ist der Punkt gemeint, an dem Sie Ihr Analysemodell nicht noch weiter verfeinern müssen, etwa weil Sie damit mindestens die Refinanzierung der Projektkosten erreichen werden. Diesen Punkt identifizieren Sie mit einer Confusion Matrix. Sie sagt Ihnen, wie viele „Treffer“ Sie mit Ihrem Mailing landen werden (tatsächliche Interessenten angeschrieben) und wie viele „Fehlschüsse“ zu erwarten sind (nicht Interessierte angeschrieben oder Interessenten nicht angeschrieben). Und sie sagt Ihnen, wie viele Kosten und wie viel Gewinn damit jeweils verbunden ist. Dazu müssen Sie alle mit dem Analytics-Projekt in Verbindung stehenden Geschäftsvorfälle monetär bewerten: Wie viel kostet der Druck meiner Werbeflyer? Wie viel Umsatz mache ich mit einer abgeschlossenen Police? Wie viel Umsatz entgeht mir, wenn ich einen wahrscheinlichen Interessenten nicht erreiche? Berücksichtigen Sie auch immaterielle Gegenstände wie Imageverlust. Bleiben Sie nicht in den technischen Bedingungen des Modells stecken. Involvieren Sie die Fachbereiche! … Sie überblicken die wirtschaftlichen Zusammenhänge besser als die IT-Abteilung. Mit ihnen gemeinsam erreichen Sie viel einfacher eine monetäre Bewertung der Geschäftsvorfälle. Achten sie früh auf die Verwendung der richtigen Daten in der richtigen Qualität. … Stellen Sie sich vor, Sie analysieren einen Prozess und kommen zu einem Ergebnis, das Sie dazu führt, ihn vollkommen umzugestalten. Und im Nachhinein finden Sie heraus, dass Sie die Analyse mit ungenügenden, verzerrten Daten durchgeführt haben. Dann wird Ihr neuer Prozess auf falschen Grundlagen beruhen.

Kennen Sie schon: Künstliche Intelligenz zum Selbermachen?

12.09.2017

Verfolgt man aktuelle Nachrichten, so ist um das Thema künstliche Intelligenz (kurz: KI) und dem damit verbundenen Hype kaum herumzukommen. Ob nun Googles AlphaGo [Link: Googles AlphaGo] die weltbesten GO Spieler besiegt oder Künstliche Intelligenz beim Kampf gegen Hautkrebs [Link: Künstliche Intelligenz beim Kampf gegen Hautkrebs] hilft, jeden Tag finden sich neue Anwendungsgebiete und es scheint nur noch eine Frage der Zeit, bis Maschinen dem Menschen den Rang ablaufen. Da drängt sich natürlich die eine Frage auf: Kann ich eine KI Zuhause selber machen? Die Antwort: klar, kein Problem. Die Algorithmen, die es seit ein paar Jahren so zuverlässig in die Nachrichten schaffen, basieren auf künstlichen, neuronalen Netzen (KNN). Diese Netze sind im Wesentlichen ein sich selbst konfigurierendes Verfahren zur Mustererkennung und begleiten uns bereits seit den 80iger Jahren. Es existiert somit eine breite Wissensbasis und eine Auswahl verschiedener Werkzeuge zur Arbeit mit neuronalen Netzen. Als kurze Einführung in das Thema empfehlen wir das Buch 'Deep Learning' [Link: Buch 'Deep Learning]. Neben einem breiten Angebot freier Software zur Arbeit mit KNN haben zudem viele der großen Unternehmen ihre eigenen KNN-Frameworks durch freie Lizenzen der Öffentlichkeit zugänglich gemacht. Für den geneigten Leser haben wir hier eine kurze Auswahl zusammengestellt: Theano [Link: http://deeplearning.net/software/theano/] Torch [Link: http://torch.ch/] TensorFlow [Link: https://www.tensorflow.org/] Bis auf geringe Unterschiede in Performance und Dokumentation bieten die Frameworks ähnliche Leistungen. Eine Vielzahl von Anleitungen und Tutorials erleichtern den Einstieg. Laden Sie sich doch einfach einen der Beispieldatensätze herunter und arbeiten Sie sich durch die Tutorials. Wenn Sie sich mit den Grundlagen hinreichend sicher fühlen, können Sie ihr Wissen und Ihre Fähigkeiten auf Teslas OpenAI Plattform [Link: Teslas OpenAI Plattform ] vertiefen. OpenAI ist eine offene KI-Test und Trainingsplattform, die eine Sammlung von Problemfeldern und Beispieldaten aus dem Bereich der künstlichen Intelligenz bereitstellt. Die größte Herausforderung für die Arbeit mit KNN ist das finden einer geeigneten Datenbasis. Als Faustregel gilt: mit einigen Tausend Datensätzen erzielt man brauchbare Ergebnisse, ab mehreren Millionen Datensätzen kann man mit der menschlichen Konkurrenz mithalten. Neben der Quantität der Daten spielt auch die Qualität eine zentrale Rolle. Wenn man beispielsweise ein neuronales Netz auf Basis ungefilterter Daten aus dem Internet trainiert, kann es schnell zu unerwünschten Nebeneffekten kommen. Microsofts Twitter Bot Tay [Link: Microsofts Twitter Bot Tay] stellte dies eindrucksvoll unter Beweis, als sie nach nicht mal 24 Stunden wegen unethischer Tweets abgeschaltet werden musste. Solche Rückschläge mahnen zur Vorsicht. Auch wenn die künstliche Intelligenz den Menschen in Spezialdisziplinen überflügelt hat, so hinkt sie beim Lernen an sich noch weit hinterher. Die Trends der Digitalisierung und BigData haben in den letzten Jahren dafür gesorgt, dass sich sowohl bei Privatpersonen als auch in Unternehmen ein mehr oder wenig strukturierter, ungenutzter Datenreichtum angehäuft hat. Diese Daten warten nur darauf mit Hilfe von KNN ausgewertet und nutzbar gemacht zu werden. Bei der Kombination der Daten und der Entwicklung von KNN ist Initiative und Experimentierfreude gefragt. Die genannten Beispiele können dabei helfen, mögliche Ansätze zu finden. Viel Erfolg bei der Entwicklung Ihrer eigenen KI! Sie haben Fragen oder möchten zu diesem Thema beraten werden? Gerne stehen wir für einen Austausch über die Technologien und die Vorgehensweise zur Verfügung. Kontakt zu ITGAIN. Wir freuen uns auf Ihre Nachricht.

Business Analytics: Passender Methodenmix bringt beste Resultate – ITGAIN Artikel im BI-Spektrum

29.06.2017

Im Gespräch mit BI-Spektrum ist sich Per Stricker in drei Dingen ganz sicher: Big Data und Analytics funktionieren ohne kognitive Ansätze nicht, Banken und Versicherungen sind stärker mit Compliance- als mit Big-Data-Themen beschäftigt, und Data Lakes werden das Data Warehouse nicht ablösen. Das Interview führte Christoph Witte, Chefredakteur BI-Spektrum, das vollständige Interview finden Sie folgend via dem aufgeführten Link.

Fachartikel zu Hybrides Data Warehouse am Beispiel von Data Vault – Shared Data in einer virtuellen Architektur

23.01.2017

Hybrides Data Warehouse am Beispiel von Data Vault - Shared Data in einer virtuellen Architektur Gemeinsamer Fachartikel von ITGAIN und EXASOL im Magazin BI-Spektrum Ausgabe 05/2016 In der heutigen BI-Welt müssen Anforderungen der Fachbereiche und gesetzliche Vorgaben sowie die Wünsche der Nutzer von Smart Devices an personenbezogenen Daten in Einklang gebracht werden. Anhand des ...

Data, data, metadata – DNA of data architecture?

06.10.2016

Betrachtung der Metadaten als DNA für eine Daten-Architektur - ITGAIN stellt den Gedanken auf der DW2016 in Zürich zur Diskussion: D - Documentation N - Navigation A - Automation. Die Zellen verwenden DNA zur Kenntnis und Steuerung, was, wann und wie sie ihren Einsatz durchführen sollen. Gleiches gilt für eine Daten-Architektur: jeder Prozess eines Data Warehouse kann Metadaten verwenden, um zu wissen, was, wann und wie dieser etwas mit den Daten, der Struktur und Logistik zu tun hat. Lauschen Sie dem Gedanken auf der DW2016 am 21.-22. November 2016 in Zürich. ITGAIN begrüßt Sie gerne auf unserer Session vertreten durch Herrn Dirk Lerner. DW Konferenz 2016 21.-22-November in Zürich - zu den Vorträgen

Daten-Modellierung Spezialisten treffen sich in Berlin mit ITGAIN – 10/11 Oktober 2016

26.09.2016

Von der Konzeption bis zum Physical Data Vault-Datenmodell - hier finden Sie auf Ihre Fragen Antworten. Erwarten Sie viele interessante Vorträge und Workshops auf der Data Modeling Zone Europa 2016. Neben dem Vortrag durch ITGAIN in Person von Dirk Lerner, erleben Sie in mehr als 20 Sitzungen weitere spannende Vorträge. Die DMZ findet jährlich in USA und Europa satt und bietet Daten-Profis eine Plattform zum Austausch speziell zum Thema Datenmodellierung. Treffen Sie die Datenexperten wie Berry Devlin, Dr. Terry Halpin, Dave Snowden, Steve Hoberman, George McGeachie und Dirk Lerner, um nur einige zu nennen, sowie viele Experten in den Bereichen Data Science, NoSQL, Moderation und Enterprise-Architektur. ITGAIN freut sich auf Ihren Besuch. Treffen Sie ITGAIN auf der Data Modeling Zone 2016 10/11 Oktober 2016

Verzicht auf eine dedizierte Analyseschicht – Schaffung einer Gesamtlösung für Echtzeitverarbeitung der Logistikdaten unter Einbeziehung mehrerer dispositiver Systeme.

14.06.2016

Einsatz von EXASolution im Logistik-Umfeld. Logistik stellt in einer stark vernetzten Welt eine kritische Größe dar. Für Unternehmen ist es wichtig rechtzeitig Störungen in den Beschaffungs- und Absatzlieferketten zu erkennen. Durch den Einsatz von In-Memory-Datenbanktechnologie können große Datenmenge in kurzer Zeit analysiert werden. Dieser Vorteil findet sich im Verzicht auf eine dedizierte Analyseschicht (gemäß klassischer DWH-Architektur) wieder – alle Abfragen und Analysen werden ohne Vorberechnungen direkt auf dem Kerndatenmodell ausgeführt. Die besondere Anforderung an die Lösung besteht in der stündlichen Aktualisierung des Datenbestands. Hierbei sind die stündlich aktualisierten Daten aus der Lieferkette für den Endanwender sichtbar. Die Bewirtschaftungsstrecken sind als wiederverwendbare Objekte in der datenbankeigenen Skriptsprache Lua implementiert. Dies garantiert eine schnelle und kostengünstige Erweiterbarkeit der Anwendung bei weiteren Anforderungen. Aus fachlicher Sicht wurde die gesamte Wertschöpfungskette von der Bestellung beim Lieferanten, über die Bereitstellung der Waren, Übergabe an den Spediteur, Bündelung von kleineren Einzellieferungen zu Normeinheiten in den Herkunftsregionen der Hersteller (Laderaumoptimierung) bis zur Anlieferung in den deutschen Distributionslagern abgebildet. Durch den kontinuierlichen Bestellabgleich in fast Echtzeit zwischen bestellter, bereits produzierter und auf dem Transportwege befindlicher Ware, ist ein rechtzeitiges Erkennen von Mindermengen, Verzögerungen oder sonstiger Störungen im Transportablauf möglich.“ ITGAIN verantwortete die Modellierung und Implementierung der Datenhaltung sowie die dazugehörige Bewirtschaftung zur Überwachung und Steuerung der Logistikketten im Bereich der Beschaffung auf Basis von EXASolution. Projektaufgabe war die Schaffung einer Gesamtlösung für Echtzeitverarbeitung der Logistikdaten unter Einbeziehung mehrerer dispositiver Systeme.

Data Governance Framework

05.05.2016

Das ITGAIN Governance Framework zur “sanften” Umsetzung für eine Data Governance Strategie wird nach den Erfahrungen im letzten Jahr ausgebaut. Unsere Kunden setzen beim Einsatz von ETL Tools hohe Erwartung an die Effizienz und Umsetzungsmöglichkeiten für ihre BI/DWH Lösungen. Diese Anforderungen sind immer wieder die klassischen Felder wie z.B. Harmonizierung, Historisierung, Protokollierung, Wiederverendbarkeit von Komponenten und einheitliche Prozesse und Richtlinien. ITGAIN bietet für Kunden die IBM DataStage bzw. den Information Server einsetzen, ein entsprechendes Framework an. Das Framework, welches in einigen Kundensituationen produktiv genutzt wird, bringt Vorteile in der Standardisierung und Umsetzung einer Data Governance Strategie mit. Speziell für Unternehmen aus dem Versicherung- und Finanzumfeld finden sich neben den Governanceinhlaten auch prozessbezogene Blue-Prints wieder.

High-Performance Data-Vault

08.09.2015

ITGAIN und EXASOL bringen Agile Modellierung und Analytische In-Memory-Datenbank zusammen Es ist kein Geheimnis mehr, dass Data Vault als Modellierungsmethode auf dem Vormarsch ist. Allerdings werden Einführungs- und Umsetzungskomplexität, sowie technologische Anforderungen im Hinblick auf die Query-Performance des zugrunde liegenden Datenhaltungssystems meist unterschätzt. ITGAIN Consulting und EXASOL entwickeln aus diesem Grund ein Best Practice Modell für die Umsetzung von Business Intelligence Anforderungen mittels Data Vault Modellierungsansatz und der auf intelligentem In-Memory Design und skalierbarer Shared-Nothing Architektur basierenden High-Performance Datenbanktechnologie von EXASOL. Erste Auswertungen auf Basis des renommierten TPC-H Benchmarks haben bereits gezeigt, dass analytische Abfragen auf Basis von EXASOL und einem Data Vault Datenmodell extrem schnelle Ergebnisse liefern. Daten-getriebene Kunden, die sich für einen agilen Ansatz wie Data Vault und einen der Technologieführer im Bereich In-Memory-Technologie in Kombination entscheiden, werden nicht enttäuscht, da sowohl Performance als auch Business Value im Fokus liegen. Beide Unternehmen wollen ihre Services und die Produktpalette in diesem Bereich weiter ausbauen, da der Markt solch innovative Lösungen und Ansätze fordert.

Data Design – Eine Liebesgeschichte

11.08.2015

Die Sprecher beschreiben die ganzheitliche Methodik 'Data Design'. Diese basiert auf Information Design, Data Vault und Agile Warehousing. Data Design ist die Verschmelzung von Reporting und Datenmodellierung. Ausgehend von den Rohdaten wird gezeigt, wie Unternehmen schnell den langen Weg durch die Datenarchitektur bis hin zu aussagekräftigen Reports dynamisch und flexibel gestalten können, ohne dabei auf feste Regeln und Normen verzichten zu müssen. Vollständige Version des Videos Registrieren Sie sich und schauen Sie sich das komplette Video an. Klicken Sie dafür auf den folgenden Button. Anschließend bekommen Sie einen Link per E-Mail zugeschickt. [ninja_forms id=18] Interview mit den Sprechern Redaktion: „Lieber Dirk, lieber Andreas, Ihr habt auf der diesjährigen TDWI Konferenz das Thema Data Design vorgestellt. Was dürfen wir im aufgezeichneten Video des Vortrags erwarten?“ Dirk Lerner: „Data Design ist eine Methode Daten von der Quelle bis zur Entscheidung in einem Unternehmen, agil, notations- und musterbasiert bereit zu stellen. Wir zeigen in dem Vortrag wie man die beiden Trendthemen Information Design und Data Vault, die auf den ersten Blick nicht viel gemeinsam haben, unter einen Hut bekommt. Daher verwenden wir bei unserem Vortrag auch den Titel Data Design – Eine Liebesgeschichte. Probleme, die IT und Fachabteilungen haben, werden gelöst.“ Redaktion: „Wie kamt ihr beiden auf die Idee?“ Andreas Wiener: „Dirk und ich kennen uns jetzt schon mehrere Jahre. Wir haben uns immer gut verstanden. Und eines Abends haben wir festgestellt, dass wir in unseren Projekten dieselben Methoden verwenden. Das haben wir uns dann mal genauer angeschaut und bemerkt das unsere beiden Kompetenzen perfekt zusammen passen. Ich komme mehr über die Fachabteilung und Dirk über die IT“ Redaktion: „Vielen Dank für die Erläuterung, ich freue mich auch den aufgezeichneten Vortrag."

Welchen Einfluss haben die neuen Datenbanktechnologien auf Analytical Data Warehousing?

09.09.2013

Welchen Einfluss haben die neuen Datenbanktechnologien auf Analytical Data Warehousing? Wie weit nützen die neuen Technologien bei Realtime-BI (oder Neartime-BI?) Anforderungen? Wir zeigen Ihnen einige Best-Practices Beispiele aus unseren Projekten. In der Workshop-Reihe „Realtime-BI (oder Neartime-BI?) und Analytical Data Warehousing“ zeigt ITGAIN gemeinsam mit der EXASOL AG wie aktuelle Technologien und Entwicklungen erfolgreich und nachhaltig in BI-sowie Data-Warehouse-Architekturen eingebunden werden können und wie durch Infrastruktur Modernisierung Chancen und Möglichkeiten genutzt werden. Moderne Technologieansätze für ein analytisches Warehouse Performance Anforderungen in BI -Das Dilemma der Universal-Datenbanken. Auswirkungen der neuen Technologien auf Entwicklung und Betrieb.

Business Monitoring als Grundlage für das Schwankungskonzept

21.01.2011

ITGAIN konsolidiert Informationssysteme mit Pentaho Data Integration Für das Berichtswesen von Daten außerhalb des Kernbankensystems hatten sich bei einem Finanzinstitut in der Historie mehrere dispositive Datenbanken etabliert. Immer wieder mussten Daten manuell zusammengeführt werden. Die zum Teil redundanten Kennzahlen und Strukturen waren nicht einheitlich definiert und führten zu Fehlinterpretationen oder zeitaufwändigen Diskussionen. Die Bewirtschaftung der fünf Datenbanken auf Basis von individuellen Programmen gestaltete sich zunehmend intransparent und kostenintensiv. ITGAIN erhielt den Auftrag die Integration der Informationen in einer konsistenten Datenbasis auf IBM DB2 (LUW) zu realisieren mit dem Ziel einer flexiblen und skalierbaren Architektur sowie einer stabilen und transparenten Bewirtschaftung aus den operativen Anwendungen heraus. Im Rahmen einer Evaluation wurde aus der Open Source BI Suite von Pentaho als Integrationswerkzeug Pentaho Data Integration(PDI) festgelegt. Die Berater von ITGAIN entwarfen zunächst das Konzept für die historisierte Ablage in der Datenbank sowie die ETL-Architektur. Kern dieser Architektur ist der flexible ereignisgesteuerte Ablauf der Übernahmeprozesse und die Erzeugung der erforderlichen Metadaten zur Laufzeit. ITGAIN passte die in seinem Kompetenzmodell vorhandenen Standard-ETL-Funktionen an die Bedürfnisse des Kunden an, erstellte wiederverwendbare Schablonen in Pentaho, so dass alle wichtigen Schritte einheitlich programmiert werden können. Bewährt hat sich hier besonders der offene Charakter des PDI Tools, da ohne Probleme individuelle Steps integriert werden konnten. In der Folge konnte ITGAIN das interne Personal mit den Pentaho Prozeduren vertraut machen. Die Implementierung konnte so in einem mehrköpfigen Team sehr schnell und effizient gestartet werden. Das gewählte Vorgehen und die Architektur stellen sicher, dass das Finanzinstitut für weitere Erweiterungen gut gerüstet ist.

Erfolgreiche BI/DWH Implementierung mit Open-Source-Tool

18.06.2010

Einsatz der Open Source-Lösung Pentaho BI Suite überzeugt. Neben den geringeren Anschaffungs- und Folgekosten ist insbesondere die Quelloffenheit als Entscheidungsgrund für den Einsatz zu nennen. Sie gestatten das Einbinden spezieller Funktionalitäten durch Java-Scripts ebenso wie die Integration weiterer Applikationen in die BI Suite. Gerade in einem gewachsenen und heterogenen Umfeld ein entscheidender Vorteil. Extraktion, Transformation und Laden in ein eigens modelliertes Data Warehouse konnte ITGAIN erfolgreich mit dem Modul Pentaho Data Integration realisieren. Die fehlertolerante Implementierung der ETL-Prozesse führte zu einer stabilen und performanten Befüllung des Warehouses. Die in der Pentaho BI Suite verfügbaren Reporting- und OLAP-Module (Pentaho Report Designer, Mondrian) ermöglichen die Bereitstellung von parametrisierten Reports, mit denen die Anwender die flexible Selektion von Daten mit einer Antwortzeit von durchschnittlich unter einer Sekunde durchführen können. Voraussetzung hierfür ist auch eine auf analytische Fragestellungen ausgerichtete Datenmodellierung.