Navigation überspringen

Analytics und Evolution: der Lebenszyklus der Modelle

Herr Schulz, was ist die größte Herausforderung, wenn es um den Einsatz von Analytics geht?

Entgegen der weitverbreiteten Meinung ist es nicht nur die Entwicklung oder das Training der Modelle, durch die die Algorithmen automatisiert zu Entscheidungen oder Voraussagen kommen. Mindestens genauso aufwändig sind ihr Deployment – also die Integration in die bereits bestehenden Arbeitsprozesse – und ihre Verwaltung.

Warum?

Diese beiden Schritte sind sehr arbeitsintensiv und gleichzeitig entscheidend für den Erfolg. Und sie müssen immer wieder gegangen werden. Aber eigentlich darf man all diese Schritte – die Entwicklung, das Testen, die Validierung, das Deployment und die Verwaltung – gar nicht isoliert voneinander betrachten. Sie sind Teil eines größeren Prozesses. Die Modelle, auf denen Analytics-Anwendungen beruhen, haben einen Lebenszyklus, der diesen Prozess immer wieder durchlaufen sollte.

Das heißt, Modelle müssen gepflegt werden?

Richtig. Es reicht nicht, einmal ein Modell zu entwickeln, um es dann unendlich lange zu verwenden. Denn jedes Voraussagemodell, das Sie entwickeln, trainieren Sie mit Daten. Daten, die Ihnen zum Zeitpunkt der Entwicklung zur Verfügung stehen und die den Zustand der Welt zu genau diesem Zeitpunkt widerspiegeln. Dadurch sieht das Modell die Welt sozusagen durch die Brille dieses Zeitpunkts. Und danach trifft es auch seine Entscheidungen und sagt beispielsweise voraus, dass Ihr Kunde X wahrscheinlich kündigen wird. Wenn sich aber die Welt zwischenzeitlich ändert, wird die Wahrscheinlichkeit größer, dass das Modell falsche Voraussagen trifft, weil sich die Kunden in dieser veränderten Welt mittlerweile anders verhalten.

Wie sieht der Lebenszyklus eines Modells aus?

In den ersten drei Schritten [Link zu "Mythos und Wahrheit II"] identifiziert man, was man mit der Analytics-Anwendung erreichen möchte – die Verhinderung von Kündigungen[Link zu „Churn Prevention für 10-Jährige“]  beispielsweise. Man entwickelt das Modell, trainiert es mit den vorliegenden Daten und testet die Genauigkeit seiner Vorhersagen. Wenn es noch nicht genau genug ist, verfeinert man es. Diesen Schritt wiederholt man solange in einer Schleife, bis das Modell Voraussagen liefert, die gut genug für den jeweiligen Zweck sind [Link zu „So setzen Sie ein „gutes“ Analytics-Projekt auf: 5 Tipps“] .

Dann, im vierten Schritt, folgt das Deployment. Stellen wir uns vor, für wen eine Vorhersage von potenziellen Kündigern nützlich sein kann: für einen Helpdesk-Mitarbeiter zum Beispiel. Er hat den direkten Kundenkontakt. Seine Customer-Relationship-Management-Software spielt ihm alle möglichen Informationen zu dem Kunden auf den Bildschirm, mit dem er gerade telefoniert. In diese Software muss nun das neue Vorhersagetool integriert werden.

Nach dem Deployment beginnt alles wieder von vorn. In einem Helpdesk zum Beispiel laufen ja ständig neue Daten auf. Über mehrere Monate hinweg haben einige Kunden gekündigt. Manche davon hat das Modell korrekt vorausgesagt, manche nicht. Mit diesen neuen Daten trainiert man das Modell und testet, ob sich die Voraussagegenauigkeit verbessert hat. Wenn ja, wird das alte Modell gegen das neue ausgetauscht. Das alte wird in einer Datenbank abgelegt, mit einem Versionsnamen und Informationen darüber, wie genau es arbeitet und mit welchen Daten es trainiert wurde. Schließlich weiß man nie, ob es später noch einmal nützlich werden könnte. Dieser Schritt heißt Historisierung.

Klingt, als müsse man ziemlich viel Aufwand betreiben, um Analytics-Anwendungen in Schuss zu halten.

Die gute Nachricht ist: Das meiste davon kann man automatisieren. Vom Training über das Deployment bis zur Historisierung ist wenig menschliche Kontrolle nötig. Das spart sehr viel Zeit und Aufwand und sorgt dafür, dass Ihr Analytics-Projekt auch auf lange Sicht ein gutes Analytics-Projekt bleibt [Link zu „Was ist ein „gutes“ Analytics-Projekt?“] .