Unsere Stories - was wir so tun

Kurz: Wir sind diejenigen, die Ihre Anforderungen verstehen – und Ihre Anwendungen und Infrastruktur zukunftsfähig und qualitätssicher machen. Mit modernsten Technologien. Mit Wissen und Methode. Mit Kompetenz, Konstanz und Kreativität – und immer mit Herz und Verstand.

Zu unseren Stories

DIE LÜCKE IM SYSTEM

Eine Science-Fiction-Story

Wie werden Künstliche Intelligenz und Big Data Analytics unser Leben verändern? Wie werden sie unsere Entscheidungen, wie unseren Berufsalltag beeinflussen?
In einer kurzen Science-Fiction-Story mit dem Titel „Die Lücke im System“ gibt die ITGAIN Consulting Gesellschaft für IT-Beratung mbH einen kurzen, spannenden Blick in die Zukunft.
Eine Geschichte, die einiges über Chancen und Risiken verrät – und sehr viel darüber, was KI und Analytics heute können und was nicht.

Zur Story

DevOps: bringt zusammen, was zusammen gehört

Einblick

Entwicklung und Betrieb leben häufig in zwei Welten. Das Ergebnis: ausgebremste Entwickler und überforderte Menschen im Betrieb. Die DevOps-Strategie optimiert ihre Zusammenarbeit. Wichtiger Ansatzpunkt neben der Technik ist die Unternehmenskultur. Vorteile und Herausforderungen kennt Christian Meißler, Teamleiter Architektur & Modernisierung bei ITGAIN.

Zur Story

Ab in die Wolke

Ist die Cloud auch für einen Hotel-Portal-Betreiber eine Alternative?

Cloud Computing ist die Zukunft. Laut dem Branchenverband Bitcom nutzen schon zwei von drei Unternehmen die schlaue Datenwolke. Auch ein Hotelportal der Top-3-Anbieter in Deutschland plant ihren Einsatz: Wir haben den Wechsel für das Touristik-Unternehmen getestet.

Zur Story

Dinos in Pflege

Einblick

Großrechner gelten als Dinosaurier unter den Computersystemen: Seit Jahrzehnten verarbeiten sie zuverlässig riesige Datenmengen. Doch nur noch wenige IT-Spezialisten kennen sich mit ihnen aus. Gut, dass einige davon bei uns sind. Sie sorgen zum Beispiel dafür, dass Gewinner der Sparkassen-Lotterie pünktlich ihr Geld erhalten

Zur Story

ITGAIN gestaltet das digitale Übermorgen

Die digitale Entwicklung verläuft immer schneller. Wir sorgen dafür, dass Sie die Vorteile auf Ihrer Seite haben, von der Konzepterstellung über die Realisierung bis zum Betrieb. Unser Fokus? Software-Engineering und Anwendungsmodernisierung, Business Intelli­gence und Operational Services mit Schwerpunkt Datenbanktechnologie. All diese Themen betrachtet unser 120-köpfiges Team stets ganzheitlich. Für Banken, Versicherungen und Unternehmen verschiedenster Branchen – mit exzellentem Wissen, innovativen Ideen und Best-Practice-Vorgehen.

Aktuelles

Ist Datenmodellierung noch wichtig? Wie Sie das Optimum aus Ihren Daten herausholen.

13.08.2018

Datenmodellierung und Datenmodelle sind auch in der heutigen Zeit wichtige Komponenten des Daten-Managements. Gerade in dem Zeitalter spaltenorientierte Datenbanken und agiler Softwareentwicklung. Das Thema Datenmodellierung fristet auch in der modernen IT-Welt oftmals noch ein gewisses Schattendasein, obwohl es eigentlich zu den essenziellen Disziplinen moderner, datenbankbasierter Anwendungsentwicklung gehöre sollte. Ein Verzicht auf ein sauberes Datenmodell führt zu ernsthaften Komplikationen bei einer künftigen Pflege und Integration, da sich die Umstände heutzutage mit großem Tempo verändern. Bei einem relationalen Datenbank-Managementsystem (RDBMS) ähnelt das Datenbankdesign hinsichtlich der Struktur ziemlich dem logischen Datenmodell. Die Bereiche, in denen ein RDBMS Datenbank-Design sich von seinem logischen Datenmodell unterscheidet, haben ihre Ursache in erster Linie in den Leistungsänderungen oder den Auswirkungen von Werkzeugen. Ist die Datenbank hingegen eine NoSQL Datenbank, kann sich das Datenbankdesign hinsichtlich der Struktur deutlich vom logischen Datenmodell abweichen. NoSQL-Datenbanken ermöglichen, neue Felder genauso problemlos einzufügen wie wir Daten einfügen. Das nennt sich „Schema-less“ oder „Schema lite“, und dies ermöglicht es uns, Datenbanken leichter und iterativ aufzubauen, bevor wir das Datenmodell abschließen. Die Modellierung bildet letztlich das Herzstück des zugrundeliegenden Datenbankdesigns und des zugehörigen Datenmanagements. Dies gilt sowohl für operative Anwendungen, als auch für Business Intelligence bzw. Data Warehouse Systeme. Ein sauberes und konsistentes Datenmodell ist die Basis für eine stabil und performant laufende IT-Anwendung und sorgt in unserer heutigen, datengetriebenen Welt für einen reibungslosen Ablauf von Geschäftsprozessen. Es trägt somit unmittelbar, wenn auch sozusagen „unter der Motorhaube“, zum Geschäftserfolg eines Unternehmens bei. Die „Data Modeling Master Class“ von Steve Hoberman ist eine der wenigen öffentlich angebotenen Schulungen im deutschsprachigen Raum, welche das Thema Datenmodellierung mit all seinen Facetten umfassend behandelt. Entwickelt wurde sie von einem der weltweit führenden Experten, Steve Hoberman, auf diesem Gebiet, der hiermit sein Wissen und seine langjährige praktische Erfahrung gebündelt weitergibt. Die Schulung richtet sich sowohl an interessierte Anfänger, die einen möglichst leichten Einstieg in das Thema Datenmodellierung bekommen möchten, als auch an fortgeschrittene bzw. erfahrene Datenmodellierer, die ihre Kenntnisse vertiefen oder auch neue Aspekte der Datenmodellierung kennenlernen möchten. Es werden sämtliche Kenntnisse und Fertigkeiten zum Erstellen und Bewerten von Datenmodellen inklusive der theoretischen Grundlagen praxisnah und anschaulich vermittelt. Ferner erhalten die Teilnehmer entsprechendes begleitendes Unterrichtmaterial, welches sie danach auch in ihrer täglichen Anwendungspraxis einsetzen können, um ihre in der Schulung erworbenen Kenntnisse und Fähigkeiten zukünftig erfolgreich einsetzen zu können.   Vom 10. bis zum 12. Oktober 2018 ist es wieder soweit! Dann findet unsere nächste Schulung in Hannover statt. Wir freuen uns auf Ihre Teilnahme! Weitere Informationen zu Kursinhalten, Terminen, Konditionen sowie zur Anmeldung sind unter https://www.itgain-consulting.de/akademie/datamodeling-master-class zu finden. Auf Anfrage kann diese Schulung auch In-House durchgeführt werden. ITGAIN Akademie – Wissen sichern, Erfahrung weitergeben.

Es sind noch letzte Plätze frei - BigData Kernkomponenten - Grundlagen zur Analytics Infrastruktur

25.07.2018

ITGAIN Akademie - Wissen sichern, Erfahrung weitergeben Ziel dieser Schulung ist es, ein Verständnis für die grundlegenden Konzepte für BigData Kernkomponenten, Einsatzszenarien und Produktion, Betrieb sowie zur Sicherheit für Artificial Intelligence und Analytics Infrastrukturen zu schaffen. Mit Theorie und Übungen. Es sind noch Plätze frei, melden sie sich bis zum 17. August an, und profitieren sie von einem 30% Nachlass. Wo? Hier geht es zur Kursbeschreibung und Anmeldung.

Instabilitäten von A.I.-Modellen bei großen Datenmengen

23.07.2018

Dies ist eine Zusammenfassung des Papers „Analyzing Hypersensitive AI: Instability in Corporate-Scale Maching Learning“, das auf dem Workshop „Explainable Artificial Intelligence (XAI)“ in Stockholm am 13. Juli 2018 präsentiert wurde [https://arxiv.org/pdf/1807.07404.pdf]. Künstliche Intelligenz hat in den letzten Jahren rasante Fortschritte gemacht, was dazu führte, dass immer mehr Entscheidungen in Unternehmen entweder direkt von A.I.-Modellen getroffen werden, oder zumindest bei der Findung von Entscheidungen eine wichtige Rolle spielen. Umso wichtiger ist es, dass diese Entscheidungen transparent und nachvollziehbar sind. In einigen Bereichen, wie der Medizin, ist es sogar vorgeschrieben, dass A.I.-Diagnosen von Menschen verifiziert werden können und keine „Black Box“ darstellen. Weiterhin ist es aber auch wichtig, dass Modelle bei minimalen Änderungen relativ stabile Entscheidungen liefern. Der Sachverhalt soll mit einem Beispiel aus dem Bereiche eCommerce deutlich gemacht werden. In der heutigen Zeit ist es fast schon selbstverständlich, dass in Webshops Empfehlungen verwendet werden, um entweder gezielt Produktvorschläge zu generieren, oder etwas allgemeiner, ähnliche Produkte direkt anzuzeigen. Als Quelle für solche Vorschläge ist es möglich, direkt den Warenkorb zu analysieren, oder zu speichern, welche Produkte von einem Kunden zusammen angeschaut wurden. Aufgrund dieser Daten ist es dann möglich, ein Modell zu trainieren, das es erlaubt zu jedem Produkt ähnliche Produkte zu finden. Selbstverständlich darf es nicht passieren, dass z.B. für eine Jacke ein Toaster als ähnlich ausgewählt wird, wenn diese nie zusammen gekauft, oder nie in einer Sitzung zusammen angezeigt wurden. Allgemein sollte ein Modell bei minimalen Änderungen in der Eingabe stabile Ergebnisse erzeugen, dahingehend, dass sich ähnliche Artikel kaum ändern. [Diese Annahme setzt allerdings voraus, dass mögliche Störfaktoren in der Eingabe zu vernachlässigen sind, z.B. sogenannte Bots, wurden bereits herausgefiltert.] Darauf aufbauend wurde ein Experiment durchgeführt, dass die anonymen „Clicks“ von Kunden über einen festen Zeitraum betrachtet, mit dem Ziel zu untersuchen, welche Auswirkungen minimale Änderungen in der Eingabe haben. Dazu wurde jeweils eine Kunden-Sitzung zufällig entfernt und das Modell neu berechnet. Verglichen wird dann die Ausgabe aus dem unveränderten Basis-Modell mit dem Modell, bei dem genau eine Sitzung ausgelassen wurde. Für eine Auswertung wird jeweils die Überlappung von ähnlichen Produkten betrachtet, wobei eine fest gewählte Menge an Produkten verwendet wird. Die akkumulierte Überlappung wird dann mit dem Mittelwert gebildet. Die Ergebnisse des Experiments sind überraschend, da nur eine ausgelassene Sitzung bereits dazu führen kann, dass die mittlere Überlappung stark abnimmt. Das bedeutet konkret, dass selbst eine Sitzung mit nur wenigen Produkten erheblichen Einfluss auf das endgültige Modell hat. Anders formuliert, Sitzungen scheinen einen unterschiedlichen Wert für das Modell zu haben, wodurch abhängig von dem Wert stärkere Schwankungen auftreten, die zu Instabilitäten führen können. Deshalb war es das Ziel, die verantwortlichen Faktoren zu isolieren, genau zu beschreiben und falls möglich, Änderungen vorzuschlagen, um dem entgegenzuwirken. Das Fazit ist aber, dass dieses Phänomen nicht nur auf den Bereich eCommerce beschränkt ist, sondern praktisch in jedem Bereich auftreten kann. Besonders dann, wenn Modelle auf Neuronalen Netzen basieren, die derzeit eine sehr hohe Verbreitung haben. Deshalb wird es immer wichtiger, den Wert einzelner Daten messen zu können, aber auch zu verstehen, wie der Einfluss von Daten sich auf ein Modell auswirkt, im Hinblick darauf, mögliche Instabilitäten besser verstehen zu können."

Digitale Transformation

Eine unserer Kernkompetenzen ist die Modernisierung und Zusammenführung bereits vorhandener Anwendungen und Technologien. Dadurch gestalten wir ihren Betrieb effizienter, minimieren den Wartungsaufwand und reduzieren Kosten. Außerdem helfen wir Ihnen künftige Anforderungen abzubilden und diese fachlich sowie technisch zu erschließen – durch unsere speziellen Vorgehensmodelle.

Architektur und Infrastruktur

Wir sind IT-Architekten. Wir helfen Ihnen, Ihre digitalen Herausforderungen zu meistern. Ob Datenbank-Infrastrukturen, Software-Anwendungen, Technologien oder Schnittstellen, wir sind für Sie da: mit IT-unterstützten Funktionen und Prozessen und dem richtigen Architektur-Management.

Artificial Intelligence & Analytics

Sie wissen, welche Schätze aus der Masse Ihrer Informationen zu heben sind. Die Herausforderung ist, sie aus den vorhandenen Daten herauszufiltern, zu integrieren und Ihnen verfügbar zu machen. Wir helfen, diesen Schatz zu heben: wir modellieren, konzipieren, integrieren, filtern und stellen die Daten zur Verfügung. Mit uns erreichen Sie Ihre Ziele schnell, effektiv.

Managed Services

Wir pflegen und entwickeln Ihre Anwendungen und Datenbanken – onsite wie offsite. Mehr Handlungsfreiheit und Betriebssicherheit, Freiräume für akute Anforderungen und Unabhängigkeit von externer Unterstützung in Projekten: die Vorteile von Managed Services sind vielfältig.

Methodenkompetenz

Fachliches und technisches Know-how alleine führen ein Projekt nicht zum Erfolg. Die richtige Anwendung des Methoden-Mix macht den Unterschied. Zur Qualitätssicherung arbeiten wir deshalb mit erprobten methodischen Vorgehensweisen.
Wir setzen Ihre Anforderungen erfolgreich in die Tat um: mit Know-how und Methode.