Instabilitäten von A.I.-Modellen bei großen Datenmengen

23.07.2018

Dies ist eine Zusammenfassung des Papers „Analyzing Hypersensitive AI: Instability in Corporate-Scale Maching Learning“, das auf dem Workshop „Explainable Artificial Intelligence (XAI)“ in Stockholm am 13. Juli 2018 präsentiert wurde [https://arxiv.org/pdf/1807.07404.pdf].

Künstliche Intelligenz hat in den letzten Jahren rasante Fortschritte gemacht, was dazu führte, dass immer mehr Entscheidungen in Unternehmen entweder direkt von A.I.-Modellen getroffen werden, oder zumindest bei der Findung von Entscheidungen eine wichtige Rolle spielen. Umso wichtiger ist es, dass diese Entscheidungen transparent und nachvollziehbar sind. In einigen Bereichen, wie der Medizin, ist es sogar vorgeschrieben, dass A.I.-Diagnosen von Menschen verifiziert werden können und keine „Black Box“ darstellen. Weiterhin ist es aber auch wichtig, dass Modelle bei minimalen Änderungen relativ stabile Entscheidungen liefern. Der Sachverhalt soll mit einem Beispiel aus dem Bereiche eCommerce deutlich gemacht werden.

In der heutigen Zeit ist es fast schon selbstverständlich, dass in Webshops Empfehlungen verwendet werden, um entweder gezielt Produktvorschläge zu generieren, oder etwas allgemeiner, ähnliche Produkte direkt anzuzeigen. Als Quelle für solche Vorschläge ist es möglich, direkt den Warenkorb zu analysieren, oder zu speichern, welche Produkte von einem Kunden zusammen angeschaut wurden. Aufgrund dieser Daten ist es dann möglich, ein Modell zu trainieren, das es erlaubt zu jedem Produkt ähnliche Produkte zu finden. Selbstverständlich darf es nicht passieren, dass z.B. für eine Jacke ein Toaster als ähnlich ausgewählt wird, wenn diese nie zusammen gekauft, oder nie in einer Sitzung zusammen angezeigt wurden.

Allgemein sollte ein Modell bei minimalen Änderungen in der Eingabe stabile Ergebnisse erzeugen, dahingehend, dass sich ähnliche Artikel kaum ändern. [Diese Annahme setzt allerdings voraus, dass mögliche Störfaktoren in der Eingabe zu vernachlässigen sind, z.B. sogenannte Bots, wurden bereits herausgefiltert.] Darauf aufbauend wurde ein Experiment durchgeführt, dass die anonymen „Clicks“ von Kunden über einen festen Zeitraum betrachtet, mit dem Ziel zu untersuchen, welche Auswirkungen minimale Änderungen in der Eingabe haben. Dazu wurde jeweils eine Kunden-Sitzung zufällig entfernt und das Modell neu berechnet. Verglichen wird dann die Ausgabe aus dem unveränderten Basis-Modell mit dem Modell, bei dem genau eine Sitzung ausgelassen wurde. Für eine Auswertung wird jeweils die Überlappung von ähnlichen Produkten betrachtet, wobei eine fest gewählte Menge an Produkten verwendet wird. Die akkumulierte Überlappung wird dann mit dem Mittelwert gebildet.

Die Ergebnisse des Experiments sind überraschend, da nur eine ausgelassene Sitzung bereits dazu führen kann, dass die mittlere Überlappung stark abnimmt. Das bedeutet konkret, dass selbst eine Sitzung mit nur wenigen Produkten erheblichen Einfluss auf das endgültige Modell hat. Anders formuliert, Sitzungen scheinen einen unterschiedlichen Wert für das Modell zu haben, wodurch abhängig von dem Wert stärkere Schwankungen auftreten, die zu Instabilitäten führen können. Deshalb war es das Ziel, die verantwortlichen Faktoren zu isolieren, genau zu beschreiben und falls möglich, Änderungen vorzuschlagen, um dem entgegenzuwirken.

Das Fazit ist aber, dass dieses Phänomen nicht nur auf den Bereich eCommerce beschränkt ist, sondern praktisch in jedem Bereich auftreten kann. Besonders dann, wenn Modelle auf Neuronalen Netzen basieren, die derzeit eine sehr hohe Verbreitung haben. Deshalb wird es immer wichtiger, den Wert einzelner Daten messen zu können, aber auch zu verstehen, wie der Einfluss von Daten sich auf ein Modell auswirkt, im Hinblick darauf, mögliche Instabilitäten besser verstehen zu können."