Spinnen, spinnen, spinnen, und immer an den Nutzer denken

Case-Story

Es gibt Herausforderungen, bei denen man mit dem Standardvorgehen nicht weiterkommt. Unsere Kunden kommen mit dieser Art Problem häufig zu uns. Weil wir uns dann nicht darauf verlassen wollen, dass der geniale Einfall von allein kommt, gehen wir methodisch vor: mit Design Thinking.

zur Story
Filter
Neuronales Netz - ist dies eine Black Box?

03.06.2019

Anlässlich unseres Vortrags auf der AI4U[1] im Juni möchten wir die Gelegenheit nutzen, nochmal das Thema Erklärbarkeit im Bereich Machine Learning zu motivieren und auf deren Bedeutung hinzuweisen. Bereits letztes Jahr im Juli haben wir auf der IJCAI Konferenz[2,3] unsere Erkenntnisse präsentiert, wo es u. a. darum ging, wie einzelne Datenpunkte die Stabilität eines Modells beeinflussen können. Die stetigen Erfolge von Neuronalen Netzen sind mit einem Preis verbunden, nämlich das Millionen von Parametern und Dutzende von Schichten notwendig sind, um anspruchsvolle Aufgaben zu lösen. Diese steigende Komplexität erfordert viel Fachwissen für eine korrekte Umsetzung, dass auf der anderen Seite trotzdem nicht ausreicht, um genau zu erklären, wie alle Komponenten in Netzen zu der eigentlichen Entscheidung kommen. Hier handelt es sich im wahrsten Sinne des Wortes um eine Blackbox. Ein kürzlich herausgegebener Leitfaden[4] für das Training von Neuronalen Netzen unterstreicht ebenfalls die Wichtigkeit, dass es notwendig ist, zu verstehen, wie Netze im Inneren funktionieren. Allerdings ist die Motivation hier, dass kleinere Fehler bei der Implementierung möglicherweise nicht erkannt werden und dadurch die Genauigkeit des Netzes -marginal- verschlechtern. Um solche Fehler aufzudecken ist es hilfreich, die inneren Abläufe zu visualisieren, um die Chance zu erhöhen, Anomalien aufzudecken. So ist es möglich, dass eine z. B. eine Teilmenge einer Kategorie wesentlich schlechter abschneidet, weil möglicherweise ein Fehler in der Vorverarbeitung stattgefunden hat. Die mittlere Genauigkeit des Netzes kann dennoch gut sein, sodass das Problem erstmal gar nicht auffällt. Ein Debugging zu einem späteren Zeitpunkt ist ohne ein tieferes Verständnis der Blackbox oft eine Herausforderung, weshalb auch hier die Erklärbarkeit ein wichtiger Aspekt ist. Ein weiteres Beispiel ist der Bereich der Medizin, wo es von großer Bedeutung ist, dass Netze die richtigen Aspekte der Daten nutzen, um korrekte Vorhersagen zu treffen. So wäre es fatal, wenn Modelle sich auf Nebensächlichkeiten stützen, die zwar zufälligerweise bei einer Kategorie vorhanden sind, aber dennoch unwesentlich für eine korrekte Prognostizierung des Krankheitsbildes. Insgesamt gibt es viele Gründe, sich mit der Erklärbarkeit zu beschäftigen, sei es, weil es gesetzlich vorgeschrieben ist, um ein Modell zu verbessern oder als Form der Qualitätssicherung, bzw. um das Vertrauen in die Technologie zu stärken. Als Berater wissen wir, wie wichtig das Vertrauen von Kunden ist und deshalb versuchen wir aktiv mitzuwirken, dass Vertrauen in A. I. zu stärken, indem wir versuchen transparent zu machen, wie unsere A. I. Modelle zu einer Entscheidung kommen.     [1] <https://www.ai4u-konferenz.de/speaker/timo-schulz/> [2] <http://home.earthlink.net/~dwaha/research/meetings/faim18-xai/>              [3] <https://arxiv.org/abs/1807.07404> [4] <https://karpathy.github.io/2019/04/25/recipe/>

Ein Blick in die Blackbox: Erklärbarkeit von Neuronalen Netzen

23.05.2019

Aufgrund der steigenden Komplexität von Neuronalen Netzen wird es immer erfolgskritischer zu verstehen, wie Entscheidungen zustande kommen und warum: Sei es zur Fehleranalyse, zur Verbesserung der Transparenz, oder um die Akzeptanz in die Technologie zu stärken. Gerade bei Neuronalen Netzen macht die Anzahl an Parametern und Schichten eine einfache Interpretation von Ausgaben oft schwierig, oder unmöglich. Aus diesem Grund sollen Möglichkeiten mit Praxisbeispielen vorgestellt werden, die zeigen, wie konkret Neuronale Netze zu einer Entscheidung kommen und warum. Der Vortrag richtet hauptsächlich sich an technisch Interessierte und Praktiker, die einen Überblick der Methodik gewinnen wollen und letztendlich soll ein einfacher Leitfaden gegeben werden. Weiteres zum Session können Sie hier lesen. Wo? Auf der Konferenz für künstliche Intellgence Die AI4U „AI for YOU“ ist eine Konferenz, deren Zielsetzung in der Förderung anwendungsorientierter Forschung in den Bereichen Künstliche Intelligenz (KI) und Maschinelles Lernen (ML) liegt und in deren Fokus die KI als Technologie für den Menschen steht. Überzeugen Sie sich selbst von der Vielfalt des Programms und investieren Sie in Ihre Weiterbildung: www.ai4u-konferenz.de Wir freuen uns auf Ihren Besuch.

AI oder Analytics - muss man dies überhaupt unterscheiden?

21.05.2019

Auch wenn einige Darstellungen des Themas im Internet suggerieren, dass mittels Cloud-basierter Lösungen die Einbindung von A.I. jedem Unternehmen offen steht, so steckt unserer Meinung nach doch mehr dahinter. So sind zum Beispiel Daten oft ausreichend vorhanden, nur liegen diese ggf. nicht in der richtigen Form vor, oder es gibt keine Anbindung der notwendigen Quellen. Zur Sache: Ohne Zweifel hat das erst mal überhaupt nichts mit A.I. zu tun, sondern hier geht es um die Vorrausetzungen, um überhaupt A.I. einzusetzen zu können. Diesbezüglich sind Unternehmen verschieden weit, aber dank themenübergreifender Kompetenzen begleiten wir Sie bei all diesen Phasen, umso die notwendigen Anforderungen umzusetzen, damit Ihrer A.I.-Strategie nichts mehr im Wege steht. Eine erste Hürde stellt oft schon die monetäre Bewertung einer A.I.-Strategie dar. Konkret bedeutet das, abzuwägen wie viel eine solche Umsetzung kostet versus den Mehrwert den sie bietet. Ohne Zweifel lässt das Budget bei vielen Unternehmen keine maßgeschneiderten Lösungen zu, was bedeutet, dass eine Lösung möglichst viele Standard-Komponenten verwenden muss. Dies setzt aber voraus, dass sich Use Cases bei Unternehmen ausreichend überlappen. Das ist ein weiteres Beispiel dafür, dass es wichtig ist, Unternehmen durch den gesamten Prozess zu begleiten, und nicht nur bei der konkreten Implementierung, um die erfolgreiche Umsetzung von A.I.-Projekten zu gewährleisten. Denn eins ist allerdings nahezu unstrittig, nämlich das sehr oft A.I. Wettbewerbsvorteile bietet und die eigentliche Frage ist, wieviel A.I. benötigt ein Unternehmen und nicht ob überhaupt. Da A.I. nicht auf spezielle Bereiche beschränkt ist, sind Use Cases eigentlich nur durch den eigenen Einfallsreichtum beschränkt. Nehmen wir zum Beispiel an, ein Unternehmen möchte mit vorhandenen Daten analysieren, ob ein Kunde demnächst kündigt oder nicht („Churn Prevention“), um entsprechende Maßnahmen vorzeitig zu ergreifen. Mittels A.I. ist es möglich, Modelle zu entwickeln, die bei Eingabe der Kundendaten eine Wahrscheinlichkeit ausgeben, dass ein Kunde kündigen könnte. Gerade für eingeschränkte Budgets sind einfach zu bedienende Werkzeuge, wie z.B. KNIME, von unschätzbarem Wert, da sie erlauben, ähnlich ITL-Strecken, A.I.-Workflows grafisch zu modellieren, ohne viel Expertenwissen. Trotz der geringen Hürde ist es aber auch hier notwendig, den Prozess mit Erfahrung begleiten zu lassen um den ersten Erfolg sicherzustellen. ITGAIN ist KNIME-Partner und verfügt über langjährige Erfahrung im Bereich A.I.-Prozesse mit KNIME. Eine Herausforderung ist auch die Schnelllebigkeit von Technologien im A.I.-Umfeld, sodass die ITGAIN bestrebt ist, auch intern Pilotprojekte durchzuführen, um frühzeitig das Potenzial neuer Trends nachhaltig zu evaluieren. Aber es gibt auch ein Leben nach der A.I., in dem Sinne, dass nach der Umsetzung die Arbeit noch lange nicht beendet ist. Was bedeutet das konkret? Wie jede andere Software, muss auch das A.I.-Modell gewartet werden und es muss Prozesse geben, um Updates einzuspielen, aber auch um Modelle zu ersetzen, und/oder alte Modelle in Rente zu schicken. Dieser Punkt wird oft vernachlässigt, da das Thema Infrastruktur für A.I. noch recht jung ist. Dies ist auch zu beachten. Ein weiterer, wichtiger Punkt ist auch das Ausrollen der Software, oder anders formuliert die Integration und Inbetriebnahme der Modelle in vorhandene Lösungen. Gerade in der Industrie kann dieser Prozess bedeuten, dass hunderte von „Zielknoten“ involviert sind.  Hier können Sie auf ITGAIN Lösungen zurückgreifen, welche aufgrund langjähriger Erfahrung im Bereich „Managed Services“ und „Software Engineering“ entstanden sind. Interesse und oder Fragen? Dann kontaktieren Sie uns gerne unter more.about@itgain.de.

TDWI – Unser Showcase - In 4 Sessions zum analytischen Modell

17.05.2019

letztes Jahr hat ITGAIN einen Blick in die Zukunft gewagt und gezeigt, wie Künstliche Intelligenz und Big Data Analytics unser Leben verändern könnte. In diesem Jahr geht die Geschichte weiter: Wir zeigen eine vollständige Strecke für Analytics, wie mittels AI-Methoden systematisch Wissen und Erkenntnisse aus unstrukturierten Texten gewonnen werden können. In 4 Sessions zum analytischen Modell Begleiten Sie uns auf dem ITGAIN-Tag auf dem Weg von den Quelldaten bis zum analytischen Modell. Wir zeigen Ihnen anhand eines Anwendungsfalls Best Practices und Hands-on-Lösungen aus Data Warehouse Automation und Analytics in hybrider Datenarchitektur – und das alles in weniger als 8 Stunden. Der Schlüssel: die richtige Kombination und Anwendung von agilen Methoden, Automationslösungen und neuen Technologien. So kommen Sie schneller zu Analyse und Erkenntnisgewinn. Die Agenda für den 25. Juni sieht diese Vorträge vor: 09:00 – 10:15   Die Autobahn zum Core DWH: von Data Discovery über das generierte Datenmodell zum ELT-Prozess.   10:45 – 11:30    Jenseits der Autobahn: Lösungen für Business-Transformationen und automatisierten Betrieb via DevOps. 12:15 – 13.00    Keynote 14:45 – 15:30   Themen und Trends aus Texten erkennen und visualisieren – Natural Language Processing und Topic Modeling 15:30 – 16:15   Analytics in hybrider Datenarchitektur – Konzeption und Realisierung eines Schaden-Vorhersagemodells im Data Lake Weiteres zum Specialday finden Sie hier auf der TDWI Seite. Der Showcase Analytics Lab ist auch als Roadshow unterwegs: Falls Ihnen der Weg nach München zu weit ist: Diese Veranstaltung führen wir in der zweiten Jahreshälfte in unseren Niederlassungen in Hamburg, Hannover und Mannheim durch. Im Dezember treten wir zudem mit dem Showcase an den IT-Tagen-Frankfurt auf. Melden Sie sich an und erleben Sie uns live! Details und Termine dazu finden Sie auf der Veranstaltungsseite.    

Showcase Analytics Lab auf den IT-Tagen-2019 in Frankfurt

17.05.2019

Unser Showcase Analytics Lab auf den IT-Tagen-2019 in Frankfurt am 09. Dezember bis 12. Dezember 2019. Wir zeigen Ihnen anhand eines Anwendungsfalls Best Practices und Hands-on-Lösungen aus Data Warehouse Automation und Analytics in hybrider Datenarchitektur – und das alles in weniger als 8 Stunden.

Showcase Analytics Lab in Mannheim

17.05.2019

Unser Showcase Analytics Lab ist am 17. Oktober 2019 in Mannheim Wir zeigen Ihnen anhand eines Anwendungsfalls Best Practices und Hands-on-Lösungen aus Data Warehouse Automation und Analytics in hybrider Datenarchitektur – und das alles in weniger als 8 Stunden.

Showcase Analytics Lab in Hamburg

17.05.2019

Unser Showcase Analytics Lab ist am 20.September 2019 in Hamburg Wir zeigen Ihnen anhand eines Anwendungsfalls Best Practices und Hands-on-Lösungen aus Data Warehouse Automation und Analytics in hybrider Datenarchitektur – und das alles in weniger als 8 Stunden.