Hilfe wenn's brennt

Case-Story

Als die Website eines Hamburger Verkehrsunternehmen ausfiel, konnten täglich 1,2 Millionen Fahrgäste nicht mehr ihre Route prüfen. Wir lösten die Ursache des Problems – einen Konfigurationsfehler in der Db2-Datenbank. Inzwischen sind unsere IT-Experten für den Zukunftsbeweger weit mehr als „Feuerlöscher“: Sie betreuen einen Großteil ihrer Datenbanken.

zur Story
Filter
Die Welt in 17 Jahren - ITGAIN wagt einen Blick in die Zukunft

16.04.2018

Wie werden Künstliche Intelligenz und Big Data Analytics unser Leben verändern? Wie werden sie unsere Entscheidungen, wie unseren Berufsalltag beeinflussen? In einer kurzen Science-Fiction-Story mit dem Titel „Die Lücke im System“ gibt die ITGAIN Consulting Gesellschaft für IT-Beratung mbH einen kurzen, spannenden Blick in die Zukunft. Eine Geschichte, die einiges über Chancen und Risiken verrät – und sehr viel darüber, was KI und Analytics heute können und was nicht. Hier geht es zur Geschichte - Die Lücke im System. Viel Spaß beim Lesen - Tipps und Infos finden sich dazu in den kleinen Abschnitten neben der Story. Wie Sie und Ihr Unternehmen von KI und Analytics profitieren können? Lassen Sie sich von uns beraten. Hierzu sind die zwei folgenden User-Stories hilfreich: Predictive Analytics per Mausklick: KNIME im Härtetest. Ab in die Wolke. Für ein Gespräch können Sie uns gerne unter analytics@itgain.de kontaktieren oder rufen Sie uns einfach an. Unter Kontakt finden sie die jeweiligen Geschäftsstellen in Ihrer Nähe.

Du willst? Du Kannst! Werde jetzt Teil des Aufbauteams bei ITGAIN Mannheim

13.04.2018

Schnell denken, neue Wege finden, leidenschaftlich arbeiten… bei ITGAIN geben wir dir die volle Verantwortung. Denn wir wissen: Nur wenn Deine Projekte auch wirklich Deine Projekte sind, findest Du die besten Lösungen. Und die brauchen wir. Jeden Tag! Als schnell wachsender IT-Consulter mit einem Kundenstamm aus namhaften internationalen und nationalen Unternehmen aus Industrie, Handel, Banken und Versicherungen suchen wir keine Stillsitzer. Wir brauchen Konzeptdenker, Projektleiter und Umsetzer. Jemanden wie dich. Werde Teil des Aufbauteams an unserem neuen Standort in Mannheim. Wir freuen uns auf Deine Bewerbung. Willkommen im Team!

„Wie finde ich das passende Analytics-Tool?": 6 Tipps

09.04.2018

Mit Business-Analyse-Tools kann man aus Unternehmensdaten echte Schätze heben. Von Vorhersagen des Kundenverhaltens über schnellere interne Prozesse bis hin zu neuen Geschäftsbereichen ist vieles möglich. Nur, wie weiß ich, welches Analytics-Tool das richtige für mein Unternehmen ist? Dazu sind Kriterien nötig – und ein paar Tests. Die besten Analytics-Tools, gelistet vom IT-Forschungsunternehmen Gartner: Führend: KNIME, Alteryx, SAS, RapidMiner, H2O.ai Herausforderer: MathWorks, TIBCO Software Visionäre: IBM, Microsoft, Domino Data Lab, Dataiku, Databricks Nischenanbieter: SAP, Angoss, Anaconda, Teradat   Je nach Projektanforderung prüfen wir für Sie, welche Lösung die richtige ist. Folgende Tools kommen häufig in unseren Projekten zum Einsatz: KNIME, Python, R, SPSS, Rapidminer 6 Tipps: Sollten Sie noch kein genaues Ziel vor Augen haben, definieren Sie es. Wollen Sie ihrem Callcenter Echtzeitinformationen zur Verfügung stellen oder große Ratinganalysen fahren? Oder wollen Sie nur ihre Kundendaten besser ordnen? Für Letzteres brauchen Sie zum Beispiel kein Analytics-Tool, das sich künstlicher Intelligenz bedient.   Machen Sie eine Bestandsaufnahme ihres Unternehmens oder des Bereichs, der mit dem Analytics-Tool arbeiten soll. Beispiel Personal: Für Mitarbeiter mit Programmierkenntnissen kommen auch Tools infrage, die auf Scriptsprachen basieren. Soll dagegen künstliche Intelligenz per Mausklick genutzt werden, sind Lösungen wie KNIME die bessere Wahl.   Berücksichtigen Sie die Besonderheiten Ihrer Branche. Gerade im Finanz- und Versicherungsbereich gibt es strenge Regularien, die vorgeben, wie personenbezogene Daten gespeichert und verarbeitet werden dürfen. Hier spielt die europäische Datenschutzgrundverordnung eine wichtige Rolle.   Überlegen Sie genau, welchen Support Sie vom Anbieter der Lösung erwarten. Brauchen Sie 24-Stunden-Support? Ist Ihr Anbieter in der Nähe? Stehen ständig Releases an? Nutzen Sie etwa die Lösung eines Start-ups, kann es sein, dass das Tool nach ein paar Jahren nicht mehr weiterentwickelt wird.   Schauen Sie sich Ihre bestehende IT-Architektur an.   Nicht jede Datenbank kommuniziert problemlos mit dem gewünschten Tool. Außerdem stellt sich die Frage, ob die Leistung Ihrer vorhandenen Hardware ausreicht. Scriptbasierte Lösungen laufen in der Regel mit weniger Rechenpower als etwa nutzerfreundlichere Tools wie KNIME.   Testen, testen, testen. Der entscheidende Part ist die Praxis. Legen Sie, abgeleitet aus den oben genannten Punkten, Kriterien fest, die für Ihre Zwecke wichtig sind (Performance, Kommunikation mit der Datenbank, Fehlerbehebung, Usability etc.). Messen Sie jedes entlang einer Skala, zum Beispiel von 1-6. Im Idealfall vergleichen Sie die Werte nicht nur mit dem bestehenden Analysesystem, sondern testen es auch gegen andere Tools.

Analytics – Mythos und Wahrheit Teil II: Wie geht das eigentlich?

06.04.2018

Analytics bedeutet viel mehr, als einem Algorithmus beliebige Daten vorzuwerfen, und von ihm Prognosen zu erwarten. Wer Analytics betreibt, lässt sich auf einen komplexen Prozess ein, der gut strukturiert werden will. Nur so kann man ein ziel- und ergebnisloses Herumstochern im Datennebel verhindern – und viel Zeit und Ressourcen sparen. Analytics ist ein Werkzeug. Wie bei allen Werkzeugen kommt es auch hier auf den richtigen Gebrauch an. Er lässt sich in vier Phasen einteilen und beginnt, noch vor allem Digitalen, in der wirklichen Welt. Phase eins: ein Problem identifizieren, das groß genug ist Analytics-Projekte kosten Zeit und Geld. Damit sich der Aufwand lohnt, sollte man mit ihnen Fragen adressieren, hinter denen entweder große Kosten oder große Gewinnchancen stecken. Wenn Sie beispielsweise Ihrem Kundenstamm neue Produkte empfehlen, könnten Sie ihn mit einem wahllosen Angebot abschrecken. Bieten Sie ihm aber ausschließlich Dinge an, die er in seiner Situation wirklich gebrauchen kann, erhöht sich Ihre Chance auf neue Umsätze erheblich. In diesem Fall lohnt es sich sicherlich, die Zusammenhänge dahinter zu analysieren, um herauszufinden, welcher Ihrer Kunden gerade was benötigen könnte – um es ihm dann gezielt anzubieten. Phase zwei: Daten finden, aufbereiten und analysieren Weiß man, welches Ziel man mit einem Projekt verfolgt – zum Beispiel Bankkunden gezielt den passenden Kredit vorzuschlagen –, identifiziert man zuerst die Daten, die dazu gebraucht werden sowie die Quellen, in denen sie zu finden sind. Das können unternehmensinterne Daten beispielsweise aus bereits bestehenden Verträgen mit den Kunden sein. Aber auch zugekaufte, wie etwa Informationen darüber, wie groß die Haushalte in bestimmten Gegenden sind. Dann werden die Daten entschlackt und so aufbereitet, dass ein Algorithmus sie auch verstehen kann. Danach geht es ans Data Mining: Die Datenbasis wird mit dem Ziel untersucht, Zusammenhänge zwischen ihnen herauszufinden, die für das Problem relevant sind. Beispielsweise: Studienabsolventen in München nehmen kurz nach dem Abschluss ihres ersten Arbeitsvertrags häufig einen Kredit für den Erwerb eines Autos in Anspruch. Nun kommt der Algorithmus ins Spiel. Mit den entdeckten Zusammenhängen durchforstet er einen Testdatensatz, um zu sehen, wie genau er damit tatsächlich Autokäufer vorhersagen kann. Wenn die Fehlerrate noch zu hoch ist, verfeinert man Modell und Daten so lange, bis die Voraussagegenauigkeit hoch genug ist. Das Ergebnis ist ein fertiges Modell, das schließlich auf die Kundendaten angewendet werden kann, um Vorhersagen zu treffen. Phase 3: Businessregeln auf die Daten anwenden Am Ende dieser Prozedur steht ein Satz Businessregeln, welche Wahrscheinlichkeiten für bestimmte Fälle angeben, die für Ihre Frage relevant sind. Daraus ergeben sich die erhofften Voraussagen. Ein Beispiel: „Die Wahrscheinlichkeit, dass ein Student in München nach Abschluss seines ersten Arbeitsvertrags mit einem Jahreseinkommen zwischen 20.000 und 30.000 Euro einen Kredit für den Erwerb eines Autos in Anspruch nimmt, beträgt 60 %.“ Diese Regeln sind es, mit denen eine Software Kunden im Bestand einer Bank identifizieren kann, denen sie aktiv einen passenden Kredit vorschlagen sollte. Phase 4: aktiv werden Der letzte und gleichzeitig wichtigste Schritt in einem Analytics-Projekt ist, die Ergebnisse in Taten umzusetzen. Sonst ist es sinnlos. Wenn Kunden identifiziert wurden, die mit hoher Wahrscheinlichkeit ein bestimmtes Produkt gebrauchen können, dann muss es diesen auch aktiv empfohlen werden. Nur so erreichen Sie auch das Ziel, das Sie sich von Anfang an gesteckt haben.

Analytics – Mythos und Wahrheit Teil I: Die größten Irrtümer

06.04.2018

Mit Analytics ist es ein bisschen wie mit dem Internet in den frühen Neunzigern: Alle wollen dabei sein, aber keiner weiß warum. Kaum jemandem ist so richtig klar, was der Begriff überhaupt bedeutet und schon gar nicht, was man eigentlich mit diesem Werkzeug anstellen kann. Zeit, mit den größten Irrtümern aufzuräumen – und zu zeigen, wie Analytics wirklich funktioniert. Meist geraten bei heißen Themen in der digitalen Welt schnell Halbwahrheiten und falsche Prognosen in Umlauf. Man erinnere sich an Bill Gates: „Das Internet ist nur ein Hype.“ Wer immer das von Analytics behauptet, liegt ziemlich sicher genauso falsch. Aber welches sind die größten Fehleinschätzungen in Bezug auf Analytics? Irrtum Nummer eins: Algorithmen sind zahlgewordene Wahrsager Die große Stärke von Analytics sind Voraussagen. Algorithmen sind ein wichtiger Teil dabei. Allerdings funktionieren sie nicht „im luftleeren Raum“. Man kann ihnen nicht einfach Fragen über beliebige Personen oder Ereignisse in der Zukunft stellen. Eine Bank beispielsweise könnte voraussagen wollen, für welches ihrer Produkte sich ein Kunde mit großer Wahrscheinlichkeit als nächstes interessieren wird, um ihn gezielt darauf anzusprechen. Dann reicht es nicht, einem Algorithmus zu sagen, wie der Kunde heißt und an welchem Tag er geboren wurde. In den Daten, mit denen ein Algorithmus arbeitet, muss schon drinstecken, welche Art von Kunde in der Vergangenheit welche Produkte gekauft hat. Das muss vorher „gelernt“ und in Modelle verpackt werden. Erst damit lassen sich Wahrscheinlichkeiten ableiten und Vorhersagen treffen. Irrtum Nummer zwei: Analytics ist ein IT-Thema. Und nur ein IT-Thema Wenn ein Unternehmen Analytics betreiben möchte, muss auch das ganze Unternehmen mitmachen, sonst wird es damit scheitern. Denn Analytics ist kein Werkzeug, mit dem man Probleme aufdeckt, sondern ein Werkzeug, mit dem man Probleme löst. Schon die erste Aufgabe in einem Analytics-Projekt liegt deshalb in den Fachbereichen: die Identifikation eines Anwendungsfalls. Welche Probleme haben wir, die wir mit Analytics lösen könnten? Erst wenn diese Frage beantwortet ist, kann man sich Gedanken darüber machen, was analysiert werden soll. Wer den IT-Fachmann mit dieser Aufgabe allein lässt, riskiert, dass eventuell Erkenntnisse zutage gefördert werden, die dem Fachbereich schon längst bekannt sind. Irrtum Nummer drei: Analytics und Datenschutz vertragen sich nicht Personenbezogene Daten wie Namen und genaue Adressen sind für die meisten Analysen nicht wichtig. Interessant wird es eventuell bei der Postleitzahl, aber meistens reicht die Stadt schon aus. Und selbst wenn solche Informationen nötig sind: Sie können anonymisiert werden. Irrtum Nummer vier: Bevor wir mit Analytics anfangen können, muss unser Data Warehouse stehen Wer so denkt, läuft Gefahr, beim ersten Projekt zu bemerken, dass er zwar wunderbar strukturierte Daten hat, aber leider nicht die richtigen – und sein brandneues Data Warehouse wieder umbauen muss. Der Weg in das Zeitalter der Analytics ist ein stetiger Prozess der Verbesserung. Jetzt Teil II lesen: „Analytics: Wie geht das eigentlich?“

Ein See voller Informationen: der richtige Umgang mit Data Lakes

04.04.2018

Wer große Mengen unterschiedlicher Datenformen für Analytics nutzen will, kommt an Data Lakes kaum vorbei. Doch um die richtigen Daten zum Fließen zu bringen, ist beim Einrichten einiges zu beachten. Ansonsten kann aus dem See durchaus ein nutzloser Tümpel werden. IT Consultant Jens Lehmann erklärt, wie ein Data Lake strukturiert sein sollte. Herr Lehmann, parallel zu Data Warehouses nutzen immer mehr Unternehmen Data Lakes. Was ist eigentlich der Unterschied? In einem Data Lake werden große Mengen angelegt – also Big Data, die man so in einem Data Warehouse nicht speichern kann. Denn Data-Lake-Daten können im Rohzustand verbleiben. Und sie können aus unterschiedlichen Quellen stammen. Um im Bild zu bleiben: Ein Data Lake ist ein großes Gewässer, gespeist aus mehreren Zuflüssen. Ein Data Warehouse besteht eher aus vielen befüllten Behältern mit bereits gedruckten Etiketten. In welchen Anwendungsfällen ist Analytics per Data Lake denn sinnvoll? Vor allem wenn große Massen an Informationen mit herkömmlichen Mitteln nicht analysiert werden können. Viele Unternehmen haben Millionen von Sensordaten, Verkaufsinformationen oder Social-Media-Inhalten, die ein Data Lake gemeinsam speichern kann. Ok. Und wie sorge ich dafür, dass diese Daten zusammen nutzbar sind? Wie strukturiere ich einen Data Lake richtig? Man muss die Rohdaten mit zusätzlichen Merkmalen anreichern. Zum einen mit Metadaten, die verraten, von welchem Ort aus jemand auf eine Website zugegriffen hat. Zum anderen mit Metaprozessinformationen – sprich Infos darüber, wann und wo Daten generiert wurden. Bei einem Hersteller für Dichtungen heißt das: Welche Maschine hat die Dichtung um 14 Uhr hergestellt? Außerdem braucht es Kontextdaten, die Texteingaben von Kunden in Formularen oder E-Mails strukturieren. Denn ein Computer kennt zum Beispiel nicht den Unterschied, wann mit dem Wort „Bank“ das Geldinstitut oder die Sitzgelegenheit gemeint ist. Zu guter Letzt beschreiben Zuordnungshinweise die Beziehung zwischen Daten, also ob Abhängigkeiten zwischen Merkmalen bestehen. Reicht das, oder braucht es noch mehr Struktur? Es reicht nicht ganz. Viele Unternehmen häufen aus verschiedenen Abteilungen verschiedene Daten an. Sie sollten daher den großen Data Lake in Data Ponds unterteilen – also in kleinere Datenteiche, wenn man so will. Die Daten in den Teichen können aber dennoch durch die Metadaten miteinander verbunden werden. Was heißt das genau? Ausgehend von den beschriebenen Zusatzmerkmalen legt man Data Ponds an. Das heißt, analoge Daten, Textdaten und Prozessdaten bilden eigene Bereiche, Cluster genannt. Sie werden auch mit verschiedenen technischen Methoden zusammengefasst. Das ist Expertenarbeit. Aber am Ende sind die Daten nicht nur für Experten nutzbar, sondern für viele Mitarbeiter. Haben Sie ein Beispiel? Endanwender wie Verkaufspersonal oder Marketingexperten können Data Lakes nutzen. Sie finden schnell Zusammenhänge – zum Beispiel zwischen allen produzierten Dichtungen in der eben angesprochenen Produktion. Ist eine Charge fehlerhaft, kann man anhand ihrer Zusatzdaten sehen, welche Maschine sie wann produziert hat – und den Fehler finden. Oder man findet schnell eine Auflistung der häufigsten Kundenkommentare der letzten Monate zu einem Produkt. Klingt rechenintensiv. Was braucht es an Hardware, um mit Data Lakes zu arbeiten? Praktischerweise lässt sich ein Data Lake ohne aufwändige Rechnerarchitektur betreiben. Über das Open Source Framework Hadoop können in den Clustern viele Computer miteinander verbunden werden, die ihre Rechenleistung für den Data Lake zur Verfügung stellen. Haben Sie noch generelle Hinweise für den Nutzen eines Data Lakes? Es reicht nicht, den Data Lake mit Inhalten aus allen zur Verfügung stehenden Quellen zu fluten. Vielmehr sollte es darum gehen, die Möglichkeiten dieses Konzeptes richtig zu nutzen. Ohne Vernünftiges Information Lifecycle Management und entsprechende Governance wird dies nicht gelingen. Daher ist eine Vorab-Analyse der Ziele enorm wichtig. Richtig angelegt sind die Daten aus Data Lakes nicht nur für Experten nutzbar, sondern für viele Mitarbeiter." Jens Lehmann, IT Consultant bei ITGAIN.

Analytics: einfach machen!

18.03.2018

Analytics ist derzeit einer der heißesten IT-Trends. Dabei gibt es die nötigen Algorithmen seit 30 Jahren. Erst jetzt jedoch sind ausreichend Rechenpower und Daten vorhanden, um sie nutzbar zu machen. Für den Erfolg eines Analyseprojekts entscheidend ist allerdings die Qualität der Datenbasis. Wir verraten Ihnen den Schlüssel zum Erfolg. Nur den Ergebnissen einer Analyse, die auf einem soliden Datenfundament beruhen, kann man auch trauen. Die entdeckten Auffälligkeiten könnten sonst nichts weiter sein als das Ergebnis einer Anomalie in den Daten. Was eine solide Datenbasis ist? Dafür gibt es eine einfache Grundregel: Gut ist eine Datenbasis, von der man genau weiß, was drinsteckt – und in welcher Form. Ein recht simples Kriterium. Um es zu erreichen müssen allerdings einige Voraussetzungen erfüllt sein. Zwei Schlüsselfaktoren für eine solide Datenbasis Bei Aufbau und Pflege einer guten Datengrundlage spielen erfolgreiche Data Governance und eine flexible Datenintegration eine Schlüsselrolle. Wenn Sie diese Prozesse im Griff haben, behalten Sie den Überblick. Dann wissen Sie, welche Daten Ihnen schon zur Verfügung stehen und welche in Ihrem Unternehmen eventuell noch „schlafen“. Ihnen ist bekannt, welche Verarbeitungsregeln auf die Daten angewendet werden und wie Ihre Geschäftsprozesse Datenseitig abgebildet sind. Außerdem gehen Sie sicher, dass neue Daten in der richtigen Qualität verwendet werden. Auf diesem Fundament lassen sich erfolgreiche Analytics-Projekte aufbauen. Data Governance: damit ist das Zusammenspiel von Datenqualität, Datenmanagement, Datenrichtlinien, Geschäftsprozessmanagement und Risikomanagement rund um den Umgang mit Daten gemeint. Dadurch halten Sie die Daten in Ihrem Unternehmen für alle verständlich. Datenquellen werden erfasst, die Art und die Ausprägung der Daten dokumentiert, die dort gesammelt sind. Zuständige für die Datenqualität werden benannt, Ansprechpartner für die verschiedenen Systeme definiert.   flexible Datenintegration: Neue Daten für ein Analyseprojekt müssen schnell in den Analysedatenbestand aufgenommen werden können. Das ist essenziell. Schließlich weiß man heute noch nicht, welche Daten sich zum Erreichen des Ziels der Analyse noch als sinnvoll erweisen könnten. Eventuell bewerten Sie Ihr Analytics-Projekt mittels einer Confusion Matrix monetär und wissen jetzt: Die Analysegenauigkeit muss erhöht werden, damit sich das Analyseprojekt auch lohnt. Also bedienen Sie sich, um die Datengrundlage zu vergrößern, bei Open Data Quellen oder kaufen Daten hinzu, etwa vom Statistischen Bundesamt. Diese Daten wollen Sie natürlich sofort verwenden und nicht Wochen oder sogar Monate auf die Bereitstellung warten. Achtung Datensilos: Datenintegration automatisieren Was die Integration angeht, werden heute noch allzu oft neue Daten direkt in den Bestand eines Analyseprojekts eingebunden und nicht – so eines existiert – in das Data Warehouse oder den Data Lake des Unternehmens. Eine schlechte Option. Denn damit bleiben sie in einem Silo vor dem Rest des Unternehmens versteckt. Will eine andere Abteilung eine Analyse durchführen, für die dieselben Daten ebenfalls nützlich wären, weiß sie unter Umständen nicht einmal, dass sie bereits im Unternehmen existieren. Häufiger Grund für diese Praxis: eine nichtautomatisierte Datenintegration in das Data Warehouse. Denn ohne ein Automatisierungstool dauert die Anbindung neuer Daten meist zu lang. Das Projekt würde auf inakzeptable Weise verzögert. Mit einer automatischen Datenintegration hingegen ist der Zeitaufwand nur unerheblich höher. Danach aber sind die Daten für das gesamte Unternehmen verwendbar. Ein nicht zu unterschätzender Nebeneffekt: Werden neue Daten in das zentral gemanagte Data Warehouse aufgenommen, unterliegen sie automatisch der Data Governance des Unternehmens. So sind sie für alle verständlich und transparent. Und dann: handeln! Die Datenbasis ist ein wesentlicher Punkt für das Gelingen eines Analyseprojekts. Sie ist das Fundament für verlässliche Analyseergebnisse. Wer es gelegt hat, hat bereits viel geschafft – und kann nun den nächsten Schritt folgen lassen: eine gut gebaute Analyse. Aber auch damit ist das Ziel noch nicht erreicht. Denn die Analyseergebnisse müssen praktisch nutzbar sein, sonst sind sie zwecklos. Beispielsweise muss eine Versicherung, die per Datenanalyse Kunden identifiziert, die mit hoher Wahrscheinlichkeit kündigen werden, diese Information dem Sachbearbeiter während seiner Telefongespräche zur Verfügung stellen. Handelt es sich beim aktuellen Gesprächspartner um einen potenziellen Kündiger, muss das im Dashboard angezeigt werden, sonst kann der Sachbearbeiter kein attraktiveres Angebot unterbreiten. Und hier zeigt sich ein weiterer Baustein eines gelungenen Analytics-Projekts: Kompetenzen in Systemintegration und Systembetrieb. Klein anfangen, groß rauskommen Wer ein Analytics-Projekt zu einem echten Erfolg machen möchte, muss also nicht nur die richtigen Grundlagen dafür schaffen, sondern auch dafür sorgen, dass die Ergebnisse richtig angewendet werden. Aber keine Angst! Unternehmen, die sich dafür entscheiden, mit Analytics zu beginnen, müssen nicht sofort ihre komplette IT-Infrastruktur und das gesamte Prozessmanagement auf den Kopf stellen. Tasten Sie lieber zunächst mit einem Projekt im kleinen Maßstab Ihre Assets ab. Und dann machen Sie Ihr Unternehmen Schritt für Schritt fit für das volle Potenzial der Analytics. Drei Fragen an Markus Burger-Scheidlin Data Scientist und Teamleiter Analytics bei ITGAIN Um ein Analytics-Projekt zum Erfolg zu führen, müssen sehr viele Dinge richtig gemacht werden. Ein Unternehmen, das gerade erst mit Analytics beginnt, kann sich da leicht überfordert fühlen. Muss es aber nicht. Wer mit Analytics anfangen möchte, muss nicht gleich alles auf einmal umkrempeln. Warum nicht? Wer alles auf einmal neu aufsetzt – Data Warehouse, Data Governance und so weiter –, bevor er sich an die Analysepraxis macht, geht ein hohes Risiko ein. Dann kann es sein, dass man beim Startschuss feststellt, jetzt zwar wunderbar aufbereitete Daten zu besitzen – aber leider die falschen. Wie stellt man also den Aufbruch in die Epoche der Analytics am besten an? Beginnen Sie mit einem kleinen Pilotprojekt. Dabei lernen Sie, was Sie bereits gut machen und was noch nicht. Eventuell haben Sie eine sehr gute Kundendatenbasis, aber eine schlechte Vertragsdatenbasis. Oder Sie merken, dass Sie Daten erfassen müssen, die Sie momentan noch nicht erheben. Verbessern Sie die Punkte, die Ihnen aufgefallen sind. Und dann gehen Sie an das nächste Projekt. So kommen Sie in einen stetigen Verbesserungsprozess.