Workshop zu Data Warehouse Automation und Advanced Analytics mit AI

Wissen sichern – Erfahrung weitergeben. Wir laden Sie ein!
- Spannende Vorträge und Live Aktionen
- Tolle Menschen und Spezialisten
- Interessante Gespräche und Diskussionen im Anschluss

zum Showcase

Unsere Stories - was wir so tun

Kurz: Wir sind diejenigen, die Ihre Anforderungen verstehen – und Ihre Anwendungen und Infrastruktur zukunftsfähig und qualitätssicher machen. Mit modernsten Technologien. Mit Wissen und Methode. Mit Kompetenz, Konstanz und Kreativität – und immer mit Herz und Verstand.

Zu unseren Stories

Artificial Intelligence oder Analytics - muss man dies überhaupt unterscheiden?

Derzeit ist das Thema A.I. in aller Munde, jeder spricht darüber, jeder setzt es ein, oder möchte es zumindest. Dennoch ist die Entwicklung einer Strategie für A.I. und deren konkrete Umsetzung oft eine Herausforderung, besonders für kleine und mittelständische Unternehmen.

Zur story

Trio mit Konzept

Neue Java-Lösung als Ersatz für eine alte Mainframe-Anwendung. Im Zuge einer Mainframe Ablösung soll eine Java-Lösung als Ersatz für eine alte Mainframe-Anwendung her – und das bei vollem Erhalt der Funktionalität. Eine Herausforderung für das Projektteam um Robert Wiesner von ITGAIN.

Zur Story

Präzises Test-Werkzeug

Für einen Hersteller von Formeln für Aromen und Duftstoffe kam unser Tool zur Testautomatisierung erstmals zum Einsatz. Für wiederkehrende Regressionstests sind automatisierte Tests bestens geeignet. Sie nehmen dem Tester viel Arbeit ab und reduzieren die Fehlerquote.

Zur Story

DevOps: bringt zusammen, was zusammen gehört

Einblick

Entwicklung und Betrieb leben häufig in zwei Welten. Das Ergebnis: ausgebremste Entwickler und überforderte Menschen im Betrieb. Die DevOps-Strategie optimiert ihre Zusammenarbeit. Wichtiger Ansatzpunkt neben der Technik ist die Unternehmenskultur. Vorteile und Herausforderungen kennt Christian Meißler, Teamleiter Architektur & Modernisierung bei ITGAIN.

Zur Story

ITGAIN gestaltet das digitale Übermorgen

Die digitale Entwicklung verläuft immer schneller. Wir sorgen dafür, dass Sie die Vorteile auf Ihrer Seite haben, von der Konzepterstellung über die Realisierung bis zum Betrieb. Unser Fokus? Software-Engineering und Anwendungsmodernisierung, Artificial Intelli­gence, Analytics, Data Insight, Big Data Architecture und Managed Services. All diese Themen betrachtet unser 134-köpfiges Team stets ganzheitlich. Für Banken, Versicherungen und Unternehmen verschiedenster Branchen – mit exzellentem Wissen, innovativen Ideen und Best-Practice-Vorgehen.

Aktuelles

Gastvortrag Hochschule Hannover

17.07.2019

Mit dem Vortrag „digital transformation - Using behavior driven development (BDD) in agile development processes or ... Do we understand each other? “ durch Christopher Koch - Solution Consultant konnten wir eine Verknüpfung von Theorie und Praxis in den studentischen Alttag einbringen. Wie immer, gab es im Anschluss regen Ausstausch. Gerne wieder.

Software-QS-Tag 2019 – wir sind dabei!

17.07.2019

Der Software-QS-Tag ist die führende Konferenz im Bereich Software-Qualitätssicherung und –Test in Deutschland – und das seit mittlerweile über 25 Jahren. Jedes Mal mit einem neuen, anspruchsvollen Schwerpunktthema, das sich als roter Faden durch die Konferenz zieht: ob als Thema in den vielfältigen Fachvorträgen, Tutorials und Workshops, in der begleitenden Fachausstellung, den Produktvorträgen oder dem Get-together zwischen den Slots. Das Programmkomitee hat den Beitrag zum Thema „digital transformation - Using behavior driven development (BDD) in agile development processes or ... Do we understand each other? “ von Christopher Koch - Solution Consultant, ausgewählt. Der Beitrag ist, soweit sich keine Progammänderungen ergeben, als „Vortrag“ mit 45 Minuten Umfang im „Track 2 - Requirements & Early Testing“ eingeplant. https://www.qs-tag.de/

Neuronales Netz - ist dies eine Black Box?

03.06.2019

Anlässlich unseres Vortrags auf der AI4U[1] im Juni möchten wir die Gelegenheit nutzen, nochmal das Thema Erklärbarkeit im Bereich Machine Learning zu motivieren und auf deren Bedeutung hinzuweisen. Bereits letztes Jahr im Juli haben wir auf der IJCAI Konferenz[2,3] unsere Erkenntnisse präsentiert, wo es u. a. darum ging, wie einzelne Datenpunkte die Stabilität eines Modells beeinflussen können. Die stetigen Erfolge von Neuronalen Netzen sind mit einem Preis verbunden, nämlich das Millionen von Parametern und Dutzende von Schichten notwendig sind, um anspruchsvolle Aufgaben zu lösen. Diese steigende Komplexität erfordert viel Fachwissen für eine korrekte Umsetzung, dass auf der anderen Seite trotzdem nicht ausreicht, um genau zu erklären, wie alle Komponenten in Netzen zu der eigentlichen Entscheidung kommen. Hier handelt es sich im wahrsten Sinne des Wortes um eine Blackbox. Ein kürzlich herausgegebener Leitfaden[4] für das Training von Neuronalen Netzen unterstreicht ebenfalls die Wichtigkeit, dass es notwendig ist, zu verstehen, wie Netze im Inneren funktionieren. Allerdings ist die Motivation hier, dass kleinere Fehler bei der Implementierung möglicherweise nicht erkannt werden und dadurch die Genauigkeit des Netzes -marginal- verschlechtern. Um solche Fehler aufzudecken ist es hilfreich, die inneren Abläufe zu visualisieren, um die Chance zu erhöhen, Anomalien aufzudecken. So ist es möglich, dass eine z. B. eine Teilmenge einer Kategorie wesentlich schlechter abschneidet, weil möglicherweise ein Fehler in der Vorverarbeitung stattgefunden hat. Die mittlere Genauigkeit des Netzes kann dennoch gut sein, sodass das Problem erstmal gar nicht auffällt. Ein Debugging zu einem späteren Zeitpunkt ist ohne ein tieferes Verständnis der Blackbox oft eine Herausforderung, weshalb auch hier die Erklärbarkeit ein wichtiger Aspekt ist. Ein weiteres Beispiel ist der Bereich der Medizin, wo es von großer Bedeutung ist, dass Netze die richtigen Aspekte der Daten nutzen, um korrekte Vorhersagen zu treffen. So wäre es fatal, wenn Modelle sich auf Nebensächlichkeiten stützen, die zwar zufälligerweise bei einer Kategorie vorhanden sind, aber dennoch unwesentlich für eine korrekte Prognostizierung des Krankheitsbildes. Insgesamt gibt es viele Gründe, sich mit der Erklärbarkeit zu beschäftigen, sei es, weil es gesetzlich vorgeschrieben ist, um ein Modell zu verbessern oder als Form der Qualitätssicherung, bzw. um das Vertrauen in die Technologie zu stärken. Als Berater wissen wir, wie wichtig das Vertrauen von Kunden ist und deshalb versuchen wir aktiv mitzuwirken, dass Vertrauen in A. I. zu stärken, indem wir versuchen transparent zu machen, wie unsere A. I. Modelle zu einer Entscheidung kommen.     [1] <https://www.ai4u-konferenz.de/speaker/timo-schulz/> [2] <http://home.earthlink.net/~dwaha/research/meetings/faim18-xai/>              [3] <https://arxiv.org/abs/1807.07404> [4] <https://karpathy.github.io/2019/04/25/recipe/>