Hilfe wenn's brennt

Case-Story

Als die Website eines Hamburger Verkehrsunternehmen ausfiel, konnten täglich 1,2 Millionen Fahrgäste nicht mehr ihre Route prüfen. Wir lösten die Ursache des Problems – einen Konfigurationsfehler in der Db2-Datenbank. Inzwischen sind unsere IT-Experten für den Zukunftsbeweger weit mehr als „Feuerlöscher“: Sie betreuen einen Großteil ihrer Datenbanken.

zur Story
Filter
Ist Datenmodellierung noch wichtig? Wie Sie das Optimum aus Ihren Daten herausholen.

13.08.2018

Datenmodellierung und Datenmodelle sind auch in der heutigen Zeit wichtige Komponenten des Daten-Managements. Gerade in dem Zeitalter spaltenorientierte Datenbanken und agiler Softwareentwicklung. Das Thema Datenmodellierung fristet auch in der modernen IT-Welt oftmals noch ein gewisses Schattendasein, obwohl es eigentlich zu den essenziellen Disziplinen moderner, datenbankbasierter Anwendungsentwicklung gehöre sollte. Ein Verzicht auf ein sauberes Datenmodell führt zu ernsthaften Komplikationen bei einer künftigen Pflege und Integration, da sich die Umstände heutzutage mit großem Tempo verändern. Bei einem relationalen Datenbank-Managementsystem (RDBMS) ähnelt das Datenbankdesign hinsichtlich der Struktur ziemlich dem logischen Datenmodell. Die Bereiche, in denen ein RDBMS Datenbank-Design sich von seinem logischen Datenmodell unterscheidet, haben ihre Ursache in erster Linie in den Leistungsänderungen oder den Auswirkungen von Werkzeugen. Ist die Datenbank hingegen eine NoSQL Datenbank, kann sich das Datenbankdesign hinsichtlich der Struktur deutlich vom logischen Datenmodell abweichen. NoSQL-Datenbanken ermöglichen, neue Felder genauso problemlos einzufügen wie wir Daten einfügen. Das nennt sich „Schema-less“ oder „Schema lite“, und dies ermöglicht es uns, Datenbanken leichter und iterativ aufzubauen, bevor wir das Datenmodell abschließen. Die Modellierung bildet letztlich das Herzstück des zugrundeliegenden Datenbankdesigns und des zugehörigen Datenmanagements. Dies gilt sowohl für operative Anwendungen, als auch für Business Intelligence bzw. Data Warehouse Systeme. Ein sauberes und konsistentes Datenmodell ist die Basis für eine stabil und performant laufende IT-Anwendung und sorgt in unserer heutigen, datengetriebenen Welt für einen reibungslosen Ablauf von Geschäftsprozessen. Es trägt somit unmittelbar, wenn auch sozusagen „unter der Motorhaube“, zum Geschäftserfolg eines Unternehmens bei. Die „Data Modeling Master Class“ von Steve Hoberman ist eine der wenigen öffentlich angebotenen Schulungen im deutschsprachigen Raum, welche das Thema Datenmodellierung mit all seinen Facetten umfassend behandelt. Entwickelt wurde sie von einem der weltweit führenden Experten, Steve Hoberman, auf diesem Gebiet, der hiermit sein Wissen und seine langjährige praktische Erfahrung gebündelt weitergibt. Die Schulung richtet sich sowohl an interessierte Anfänger, die einen möglichst leichten Einstieg in das Thema Datenmodellierung bekommen möchten, als auch an fortgeschrittene bzw. erfahrene Datenmodellierer, die ihre Kenntnisse vertiefen oder auch neue Aspekte der Datenmodellierung kennenlernen möchten. Es werden sämtliche Kenntnisse und Fertigkeiten zum Erstellen und Bewerten von Datenmodellen inklusive der theoretischen Grundlagen praxisnah und anschaulich vermittelt. Ferner erhalten die Teilnehmer entsprechendes begleitendes Unterrichtmaterial, welches sie danach auch in ihrer täglichen Anwendungspraxis einsetzen können, um ihre in der Schulung erworbenen Kenntnisse und Fähigkeiten zukünftig erfolgreich einsetzen zu können.   Vom 10. bis zum 12. Oktober 2018 ist es wieder soweit! Dann findet unsere nächste Schulung in Hannover statt. Wir freuen uns auf Ihre Teilnahme! Weitere Informationen zu Kursinhalten, Terminen, Konditionen sowie zur Anmeldung sind unter https://www.itgain-consulting.de/akademie/datamodeling-master-class zu finden. Auf Anfrage kann diese Schulung auch In-House durchgeführt werden. ITGAIN Akademie – Wissen sichern, Erfahrung weitergeben.

Es sind noch letzte Plätze frei - BigData Kernkomponenten - Grundlagen zur Analytics Infrastruktur

25.07.2018

ITGAIN Akademie - Wissen sichern, Erfahrung weitergeben Ziel dieser Schulung ist es, ein Verständnis für die grundlegenden Konzepte für BigData Kernkomponenten, Einsatzszenarien und Produktion, Betrieb sowie zur Sicherheit für Artificial Intelligence und Analytics Infrastrukturen zu schaffen. Mit Theorie und Übungen. Es sind noch Plätze frei, melden sie sich bis zum 17. August an, und profitieren sie von einem 30% Nachlass. Wo? Hier geht es zur Kursbeschreibung und Anmeldung.

Instabilitäten von A.I.-Modellen bei großen Datenmengen

23.07.2018

Dies ist eine Zusammenfassung des Papers „Analyzing Hypersensitive AI: Instability in Corporate-Scale Maching Learning“, das auf dem Workshop „Explainable Artificial Intelligence (XAI)“ in Stockholm am 13. Juli 2018 präsentiert wurde [https://arxiv.org/pdf/1807.07404.pdf]. Künstliche Intelligenz hat in den letzten Jahren rasante Fortschritte gemacht, was dazu führte, dass immer mehr Entscheidungen in Unternehmen entweder direkt von A.I.-Modellen getroffen werden, oder zumindest bei der Findung von Entscheidungen eine wichtige Rolle spielen. Umso wichtiger ist es, dass diese Entscheidungen transparent und nachvollziehbar sind. In einigen Bereichen, wie der Medizin, ist es sogar vorgeschrieben, dass A.I.-Diagnosen von Menschen verifiziert werden können und keine „Black Box“ darstellen. Weiterhin ist es aber auch wichtig, dass Modelle bei minimalen Änderungen relativ stabile Entscheidungen liefern. Der Sachverhalt soll mit einem Beispiel aus dem Bereiche eCommerce deutlich gemacht werden. In der heutigen Zeit ist es fast schon selbstverständlich, dass in Webshops Empfehlungen verwendet werden, um entweder gezielt Produktvorschläge zu generieren, oder etwas allgemeiner, ähnliche Produkte direkt anzuzeigen. Als Quelle für solche Vorschläge ist es möglich, direkt den Warenkorb zu analysieren, oder zu speichern, welche Produkte von einem Kunden zusammen angeschaut wurden. Aufgrund dieser Daten ist es dann möglich, ein Modell zu trainieren, das es erlaubt zu jedem Produkt ähnliche Produkte zu finden. Selbstverständlich darf es nicht passieren, dass z.B. für eine Jacke ein Toaster als ähnlich ausgewählt wird, wenn diese nie zusammen gekauft, oder nie in einer Sitzung zusammen angezeigt wurden. Allgemein sollte ein Modell bei minimalen Änderungen in der Eingabe stabile Ergebnisse erzeugen, dahingehend, dass sich ähnliche Artikel kaum ändern. [Diese Annahme setzt allerdings voraus, dass mögliche Störfaktoren in der Eingabe zu vernachlässigen sind, z.B. sogenannte Bots, wurden bereits herausgefiltert.] Darauf aufbauend wurde ein Experiment durchgeführt, dass die anonymen „Clicks“ von Kunden über einen festen Zeitraum betrachtet, mit dem Ziel zu untersuchen, welche Auswirkungen minimale Änderungen in der Eingabe haben. Dazu wurde jeweils eine Kunden-Sitzung zufällig entfernt und das Modell neu berechnet. Verglichen wird dann die Ausgabe aus dem unveränderten Basis-Modell mit dem Modell, bei dem genau eine Sitzung ausgelassen wurde. Für eine Auswertung wird jeweils die Überlappung von ähnlichen Produkten betrachtet, wobei eine fest gewählte Menge an Produkten verwendet wird. Die akkumulierte Überlappung wird dann mit dem Mittelwert gebildet. Die Ergebnisse des Experiments sind überraschend, da nur eine ausgelassene Sitzung bereits dazu führen kann, dass die mittlere Überlappung stark abnimmt. Das bedeutet konkret, dass selbst eine Sitzung mit nur wenigen Produkten erheblichen Einfluss auf das endgültige Modell hat. Anders formuliert, Sitzungen scheinen einen unterschiedlichen Wert für das Modell zu haben, wodurch abhängig von dem Wert stärkere Schwankungen auftreten, die zu Instabilitäten führen können. Deshalb war es das Ziel, die verantwortlichen Faktoren zu isolieren, genau zu beschreiben und falls möglich, Änderungen vorzuschlagen, um dem entgegenzuwirken. Das Fazit ist aber, dass dieses Phänomen nicht nur auf den Bereich eCommerce beschränkt ist, sondern praktisch in jedem Bereich auftreten kann. Besonders dann, wenn Modelle auf Neuronalen Netzen basieren, die derzeit eine sehr hohe Verbreitung haben. Deshalb wird es immer wichtiger, den Wert einzelner Daten messen zu können, aber auch zu verstehen, wie der Einfluss von Daten sich auf ein Modell auswirkt, im Hinblick darauf, mögliche Instabilitäten besser verstehen zu können."

Wie kann ich helfen?

20.07.2018

Chat Bots sind gefragt. Sie können Kundendienste entlasten oder potenziellen Bewerbern gezielte Antworten zum Unternehmen liefern. Wie das geht? Das zeigt ein internes ITGAIN-Projekt. Auf der ITGAIN-Website soll künftig ein programmierter Gesprächspartner potenzielle Bewerber ansprechen, die dort nach Informationen suchen. Warum schließlich sollte man nicht selbst nutzen, was man erfolgreich Kunden anbietet. Per interner Ausschreibung wurde in den Reihen von ITGAIN das beste Chatbot-Konzept gesucht – und gefunden. Derzeit bekommt es noch den Feinschliff. Was Tolga Sahingers' Gewinner-Bot kann, kann er aber jetzt schon mal selbst erklären: Hallo, wie heißt Du? Tut mir leid, auf diese Frage habe ich keine Antwort für Sie. Stimmt, das Projekt läuft ja noch. Dann: Wer hat Dich ausgewählt? Eine vierköpfige Jury hatte alle eingereichten Chatbots mit 20 Fragen zu unserem Unternehmen getestet und eine Vorauswahl getroffen. Bei einem Mitarbeiterevent durften dann alle ITGAIN-Kollegen diese Bots testen. Nach welchen Kriterien wurde entschieden? Es ging darum, wie gut die Chatbots Fragen verstehen, wie einfach sie zu bedienen sind und auch darum, ob sie dazu animieren, sich bei ITGAIN bewerben zu wollen. Dabei helfen zum Beispiel auch Witz und Humor. Welche Informationen bietest Du an? Alles, was Bewerberinnen und Bewerber wissen wollen. Wo liegen die ITGAIN-Standorte? Wie ist die Verkehrsanbindung? Ok, und was ist deine technische Basis? Die Auszeichnungssprache AIML. Das steht für Artificial Intelligence Markup Language. Außerdem funktioniere ich mit Natural Language Processing. Was heißt Natural Language Processing? Ich suche nach sogenannten Patterns. Das bedeutet, ich erkenne Begriffe, Satzbau und Wortanordnungen, denen ich bestimmte Antworten zuordne. Diese Antworten ziehe ich aus Templates, also aus einer Datengrundlage, die mir mein Entwickler gutsortiert einprogrammiert hat. Klingt kompliziert. Tut mir leid, ich verstehe Ihre Frage nicht. Kannst Du Deine Funktion einfacher erklären? Ich arbeite wie ein Entscheidungsbaum. Je nach Muster, das ich erkenne, zweigen sich verschiedene Antwortmöglichkeiten ab. Die Antwort, die am besten passt, nehme ich. Verstehe. Und mit jedem Chat lernst Du, Dich besser zu entscheiden, richtig? Ja, das ist richtig. Was war Dein Vorteil gegenüber den anderen Chatbots im Wettbewerb? Ich kann über Tags auch Informationen verknüpfen. Kannst Du ein Beispiel nennen? Wenn ich nach einem Standort gefragt werde und dieser Frage wurde das Tag Wetter zugeordnet, biete ich den Wetterbericht für genau diesen Standort an. Welche Vorteile habe ich, wenn ich Dich einsetze? Ich bin sympathischer als ein Kontaktformular. Außerdem können Sie die Aussagen Ihrer Kunden messen, analysieren und das Angebot verbessern. Und ich schlafe nie. Klingt gut. Was passiert aktuell in dem Projekt? Meine Bibliothek wird erweitert. Ich bekomme mehr Kategorien, Tags und lerne mehr Patterns kennen. Bekommst Du auch einen Namen? Ich weiß darauf keine Antwort. Die lernst Du noch, da bin ich sicher. Danke! Ich bedanke mich – und wünsche einen angenehmen Tag.  

ITGAIN@TDWI: KNIME zum Anfassen.

18.06.2018

Clusteralgorithmus für Churn Prevention – lassen Sie sich dies auf der TDWI zeigen und diskutieren Sie mit uns, wie ein Einsatz pragmatisch machbar ist. Einfach machen! Wo? TDWI 2018 München; Wann? 26.-28. Juni 2018 Stand #52 Unser Ziel: "Kompetenz gewinnbringend einsetzen.“ - Probieren Sie uns aus! Neben dem „Was“ finden Sie auch in dem Artikel "Die Lücke im System" das „Wie“ zu einem System, um Informationen passend zu Ihren Anforderungen zu erschließen. Hier geht es zum Artikel: Die Lücke im System – Informationen aus Analysen gewinnen. Eine Geschichte wie es in der Zukunft sein wird und Hinweise wie dies zu erreichen ist. Wir versetzen Sie gerne in die Lage, auf dem digitalen Spielfeld erfolgreich zu sein. Projekt anfragen – auch in Ihrer Nähe.

ITGAIN@TDWI: Analytische Methoden und Vorgehensmodelle sind die neuen Herausforderungen in modernen BI-Umgebungen. ITGAIN stellt wichtige Aspekte vor.

12.06.2018

Wo? TDWI 2018 München; Wann? 26. Juni 2018 ab 09:00. Die folgenden Punkte sind auch Ihre Ziele? Dann besuchen Sie uns auf unserem Stand #52 und erfahren Sie, wie Sie mit unseren Kompetenzen profitieren können. Touch down! – Zum richtigen Zeitpunkt, das richtige tun - Dynamische Optimierungsmodelle in der Praxis. Die Zukunft kennen! – Auswahl geeigneter Metriken zur Beurteilung der Performance von Predictive Analytics - Was können Unternehmen von der Wettervorhersage lernen? Informiert! – Was Analytics Projekte ins Stocken bringt und mögliche Lösungsansätze. Schnell & einfach! - Advanced Analytics –  mit der Methode zum Modell und dann? Flexibel! – Management von agilen Projekten im Analytics Umfeld - So wird’s gemacht! Unsere Kollegen beraten Sie gerne auf der diesjährigen TDWI Konferenz. Besuchen Sie uns auf der größten, unabhängigen Konferenz zum Thema Business Intelligence und Data Warehousing vom 26. bis 28. Juni 2017 in München. Stand #52 Unser Ziel: "Kompetenz gewinnbringend einsetzen.“ - Probieren Sie uns aus! ITGAIN@TDWI - Melden Sie sich an!

„Bitte erklären Sie einem 10-Jährigen…“: Hadoop Cluster

11.06.2018

Immer mehr Daten in immer größerer Geschwindigkeit speichern und bearbeiten? Ein Server allein schafft das irgendwann nicht mehr. Die Devise lautet deswegen Teamwork: Mehrere Rechner teilen die Aufgaben untereinander auf. Klingt einleuchtend? Ist aber knifflig. Philipp Böcker, Big Data Consultant bei ITGAIN, erklärt Ihnen Hadoop Cluster so, dass es jeder versteht. Sogar ein 10-Jähriger. YARN, HDFS oder Map-Reduce-Algorithmus… Wer verstehen will, wie ein Hadoop Cluster funktioniert, stößt ganz schnell auf unverständliche Begriffe. Dabei ist die Sache eigentlich ganz einfach. Stell dir vor, du musst eine Mathearbeit schreiben. Verflixt. Aber diesmal ist alles anders: Du schreibst sie nicht allein. Deine Klasse nimmt nämlich an einem Mathewettbewerb teil. Die Klasse, die am schnellsten ist und am besten abschneidet, gewinnt. Deswegen soll jeder nur die Aufgaben rechnen, die er gut schaffen kann. Klingt gut? Ist es auch! Und deswegen macht man das Gleiche, wenn man so irrsinnig viel zu berechnen hat, dass es ein Computer allein nicht mehr schafft. Dann verteilt man die Aufgaben auf viele Rechner. Das Ganze nennt man dann ein Hadoop Cluster. Und es funktioniert eigentlich genauso wie du und deine Klasse bei einer Mathearbeit. Nur nicht mit Matheaufgaben, Schülern und Lehrern, sondern mit Daten, Computern und Computerprogrammen. Aber zurück zu dir. Du und deine Klassenkameraden – die Computer – sitzt also im Klassenzimmer auf euren Plätzen und seid bereit loszulegen. Die Arbeit liegt auf dem Pult beim Lehrer – im Hadoop Cluster würde das „Hadoop Distributed File System“ heißen. Die Aufgabe des Lehrers übernimmt ein Computerprogramm namens YARN. Der Lehrer jedenfalls kennt nicht nur die einzelnen Aufgaben der Mathearbeit gut, sondern weiß auch, welche deiner Mitschüler besonders fit sind und wer nicht ganz so schnell rechnen kann. Deswegen überlegt er sich vorher schon mal, wie er die Aufgaben verteilen möchte. Also wer mehr Aufgaben rechnen soll, wer weniger. Wer die schwereren Aufgaben bekommt und wer die leichteren. Schließlich kommt es heute nicht darauf an herauszufinden, wer der größte Mathecrack ist, sondern ein Gesamtergebnis mit der Note 1 zu bekommen. Du findest, das könnte ruhig immer so sein… Die Aufgaben müssen also sinnvoll verteilt werden. Dabei hilft eure Klassensprecherin Luise dem Lehrer. Natürlich, wie immer... Der Lehrer hat Luise gesagt, dass Philipp vier mittelschwere Aufgaben erledigen soll. Die schlaue Rike soll ein kleineres, aber kniffligeres Aufgabenpaket bekommen. Und Marina, die beim letzten Mal nicht so schnell war, bekommt zwei leichte Aufgaben. Luise schnipselt die Klassenarbeit deswegen erstmal auseinander und legt die Aufgaben auf verschiedene Stapel, einen für leichte, einen für mittelschwere und einen für schwierige Aufgaben. Dann ruft sie jeden Schüler einzeln auf und sagt ihm, welche Aufgaben er sich nehmen soll. Später, wenn ihr dann fertig seid, wird Luise eure Aufgaben wieder zusammenfügen. Dieses ganze Auseinanderschnipseln und wieder Zusammenkleben nennt man im Hadoop Cluster „Map-Reduce“. Aber egal, was für dich als Rechner zählt, ist: Von insgesamt 30 Aufgaben musst du nur drei erledigen. Toll! Während nun alle Schüler so vor sich hinrechnen, geht Luise rum und sieht nach, ob auch wirklich jeder mit seinen Aufgaben klarkommt. Dabei sieht sie zum Beispiel, dass Rike viel flotter ist als gedacht und du mit deinen Aufgaben mal wieder ganz schön ins Schwitzen kommst. Also nimmt sie dir eine Aufgabe weg und schiebt sie zu Rike rüber. Wirklich, dieses System gefällt dir! Und Rike auch. Als alle fertig sind, legt jeder seine Aufgaben auf Luises Tisch. Die fügt sie dann wieder zu einer kompletten Arbeit zusammen. Wenn sie fertig ist, sagt sie dem Lehrer Bescheid. Der schickt sie dann an andere Erwachsene, die sich den ganzen Wettbewerb ausgedacht haben. Klar, schließlich sind Berechnungen ja meist zu irgendwas gut – und wenn es nur ein Wettbewerb ist. Eine Woche später bekommt ihr das Ergebnis. Leider hat’s diesmal nur für Platz 2 gereicht, weil eine andere Klasse schneller war. Aber nächstes Mal wird’s sicher was mit dem Sieg! Euer Lehrer hat nämlich euch und eure Fähigkeiten wieder ein bisschen besser kennengelernt. Und du darfst in Zukunft deswegen auch hundertprozentig nur deine Lieblingsaufgaben rechnen.  

Modernisierung: Mainframe-Umfeld erfordert Expertise

04.06.2018

Die Digitalisierung geht mit zahlreichen Herausforderungen für Organisationen und Unternehmen einher. Eine davon ist die Modernisierung von Mainframe-Systemen. Hierbei gilt es unter anderem, eingesetzte Technologien zu konsolidieren und eine einheitliche Programmiersprache zu implementieren. Darüber hinaus sind einige weitere Faktoren zu beachten. Modernisierung von Mainframe-Systemen Nicht selten haben Unternehmen und auch öffentliche Einrichtungen noch Programme in COBOL oder ähnlichen Sprachen auf ihrem Mainframe im Einsatz. Vielerorts steigen daher die Kosten für Entwicklung, Wartung und Betrieb. Es gibt jedoch Möglichkeiten, die bestehende Software trotz der widrigen Umstände wirtschaftlich weiterzubetreiben. Eine Option ist die Mainframe-Modernisierung. Auf dieses Gebiet hat sich unter anderem ein eigener thematisch aufgestellter Bereich der ITGAIN spezialisiert. Wir unterstützten unsere Kunden dabei, ihr Mainframe-System fit für die Zukunft zu machen. Methodisch, fachlich und mit unseren Erfahrungen. Methodisches Vorgehen, wenn man mit dem Standvorgehen nicht weiter kommt. Ein Beispiel aus der Praxis. Hierbei führen die Experten zunächst den eingesetzten Software-Stack zusammen, vereinheitlichen vorhandene Datenbanken und richten das System zudem auf eine definierte Programmiersprache aus. In diesem Rahmen kommen individuelle Lösungen zur Anwendung - etwa eine automatische Migration oder Konvertierung, eine modellbasierte Umstellung oder auch eine manuelle Überarbeitung. ZUM THEMA: Migration mit Tempo und Top-Performance Weitere Herausforderungen - Mainframe als Service nutzbar Neben einer Modernisierung von Mainframe-Systemen ist heute ein wesentlich höherer Grad der Integration in Enterprise-Architekturen erforderlich als in der Vergangenheit. Dies ist nur dann realisierbar, wenn die Funktionalitäten der Mainframe-Anwendungen als Service in den übrigen Systemen nutzbar sind. ITGAIN begegnet dieser Herausforderung beispielsweise über Webservices oder die Anbindung an einen Enterprise Service Bus. Werden im Rahmen der Mainframe-Modernisierung Applikationen identifiziert, die zu pflegeaufwendig oder veraltet sind, konzipiert wir Managed Services für deren Auslagerung. Insgesamt sinkt hierdurch der Wartungsaufwand und es werden Kapazitäten für das Kerngeschäft frei. Die bestehenden Mainframe-Anwendungen stellen ein sehr wertvolles Asset des Unternehmens dar und das fachliche Knowhow gilt es zu erhalten. Deswegen ist darauf zu achten, dass der Wechsel in solchen Schritten vollzogen wird, dass die betroffenen Mitarbeiter nicht abgehängt werden. Die Spezialisten von ITGAIN beherrschen sowohl die „alte“ als auch die „neue“ IT-Welt und können dadurch den Übergang für die Entwicklungs- und die Betriebsmannschaft möglichst sanft gestalten. Rehosting als attraktiver Ansatz ITGAIN konnte seine Expertise im Mainframe-Bereich bereits in mehreren Projekten unter Beweis stellen. So stand etwa das Kommunale Rechenzentrum am Niederrhein vor der Problematik, dass ein Transaktionsmonitor (IMS) auf dem Mainframe vertraglich nicht mehr verlängert werden sollte, da immer mehr Anwendungen auf der dezentralen Plattform liefen. Es war nicht mehr wirtschaftlich, das IMS auf dem Großrechner weiterzubetreiben. Das Ziel lautete, auf Linux zu migrieren, um keine neuen Verfahren entwickeln zu müssen. ITGAIN wählte einen Rehosting-Ansatz. Die Software läuft damit nicht mehr auf dem Mainframe, sondern auf einem Linux-Server, der die bisherige Mainframe-Umgebung quasi simuliert. Die fachliche Logik blieb demnach unverändert und aus Anwendersicht ergab sich keine Änderung. In Summe wird deutlich, dass die Mainframe-Modernisierung mehrere Vorteile mit sich bringt. Sie ist jedoch auch ein komplexer Prozess, der nur erfolgreich ist, wenn wichtige Aspekte und Prämissen beachtet werden. Entsprechend empfiehlt sich eine Zusammenarbeit mit spezialisierten Dienstleistern wie ITGAIN. Interessiert? Projekt anfragen.