Kreditinstitute wurden in den letzten Jahren vor viele Herausforderungen gestellt. Der Ausbau und die Verschärfung der regulatorischen Anforderungen beschäftigt Banken seit der Finanzmarktkrise massiv. Sei es Basel IV, das 2016 durch die EZB eingeführte Analytical Credit Dataset (AnaCredit), MiFid, BAIT oder die PSD 2-Richtlinie, um nur einige Beispiele zu nennen.

Das spielt zum einen der Digitalisierung der Branche in die Karten, da Geldinstitute zumeist mit veralteter IT-Infrastruktur arbeiten, die zunächst einmal einer Modernisierung bedarf, um aktuellen gesetzlichen Regelungen gerecht zu werden. 

Es bindet zum anderen allerdings auch enorm viel Kapital, Personal und zwingt Banken teilweise dazu, sich mit Themenfeldern auseinanderzusetzen, die nicht ihrem eigentlichen Kerngeschäft entsprechen. 

Im Folgenden gehe ich anhand aktueller Praxiserfahrungen insbesondere darauf ein, wie eine Großbank ihr Controlling und Meldewesen auf zukunftsträchtige Säulen gestellt hat, welche Herausforderungen dabei zum Tragen kamen und wie wir Sie dabei unterstützen, diese Herausforderungen zu meistern.

Herzstück eines modernen Controllings – das Data Warehouse (DWH) 

In der Vergangenheit war es für Kreditinstitute häufig üblich, benötigte bzw. gesetzlich geforderte Berichtsmeldungen direkt aus den jeweiligen IT-Anwendungen für die getätigten Geschäfte zu erzeugen. So gab es beispielsweise sowohl für das Darlehensgeschäft im Retail- als auch im Wholesale-Bereich jeweils eigene Anwendungen mit eigenen Auswertungssystemen. Das vereinfacht zwar zunächst die Entwicklung und operative Umsetzung, macht es aber nahezu unmöglich, diese Daten im Nachgang konsistent und somit qualitativ nutzbar zusammenzuführen. Der Grund dafür liegt oft in voneinander abweichender Business-Logik oder Verarbeitungsregeln der unterschiedlichen Quellsysteme. Diese Business-Logik zu vereinheitlichen und damit eine solide, zentralisierte Basis für das Berichtswesen zu schaffen, stellt viele Institute vor große Herausforderungen. Technische Restriktionen können hier ebenfalls Ursache sein. 

Das zukunftsfähige Controlling setzt auf einen zentralen Datenhaushalt. Dieser zentrale Datenhaushalt ist eine für Analysezwecke optimierte zentrale Datenbank, die Daten aus mehreren Quellsystemen zusammenführt. Im genannten Beispiel sind das die beiden Darlehenssysteme. Dieses ermöglicht es dem Meldewesen Berichte auf vereinheitlichter, zentralisierter Datenbasis flexibel zu erzeugen. In Kombination mit einer aktuellen webbasierten, integrierten Business Intelligence-Suite, wie zum Beispiel Cognos Analytics von IBM, lassen sich mittels ansprechendem Userinterface in kurzer Zeit komplexe Business Intelligence (BI)-Sachverhalte als leicht aufzunehmende Informationen darstellen, selbst für Nutzer ohne kaufmännischen Hintergrund. 

Zukunftsfähiges Controlling und Meldewesen für Kreditinstitute

Innerbetriebliche Gründe für die Implementierung eines DWH

Kreditinstitute werden nicht nur durch den Gesetzgeber dazu bewegt, ihr Datenmanagement zeitgemäß zu halten. Es gibt zahlreiche, sehr gute Gründe für Unternehmen, eine zentrale Datenbank zu unterhalten.

Solche Gründe  können in der qualitativ hochwertigen Datenbereitstellung liegen, da eine Vereinheitlichung an zentraler Stelle erfolgt. Damit geht zumeist der Ersatz manueller Aufwände und Prozesse einher, beispielsweise Abgleiche von Kennzahlen unterschiedlicher Systeme, aufgrund verschiedener zugrundeliegender Berechnungslogiken. Daneben wird die Flexibilität für das Berichtswesen erhöht, da sich insbesondere in Verbindung mit entsprechender Software simpel und schnell Reports und Dashboards für den individuellen operativen Bedarf erstellen lassen. Außerdem finden unterschiedliche Anforderungen der verschiedenen Stakeholder Berücksichtigung, womit die unternehmensweite Transparenz insgesamt erhöht wird.

Welche Herausforderungen und Komplikationen erwarten die Institute dabei?

Eine Herausforderung bezieht sich sogar direkt auf einen Vorteil für Unternehmen: Um die unterschiedlichen Anforderungen der verschiedenen Stakeholder zu berücksichtigen, muss diese zunächst einmal strukturiert erfasst, analysiert und sinnvoll in den Kontext des Zielbilds eingeordnet werden. Gelingt das vollumfänglich für alle Stakeholder, so hat man eine hervorragende Anforderungsbasis, welche die unterschiedlichen Blickwinkel der Stakeholder zusammenführt. Das kann, teils auch bedingt durch die Unternehmensgröße, ein ziemlicher Kraftakt werden. Weiterhin muss sichergestellt sein, dass die Qualität dessen, was umgesetzt und entwickelt wird, auch dem angeforderten Standard entspricht selbstverständlich rechts- und revisionssicher sowie für die Nachwelt und etwaige Prüfungshandlungen nachweisbar.

Auch hier sind Zeit und Kosten zwei sehr wichtige Faktoren. Je nach Größe des Unterfangens ist ein strukturiertes Projektmanagement unerlässlich, um Deadlines wie auch Budget im Blick zu behalten und zu steuern.

Kreditinstitute sollten sich auf ihr Kerngeschäft konzentrieren können. Der Aufbau, die Modernisierung und auch die Bewirtschaftung eines DWH erfordern Knowhow, von der Wahl der optimalen Zielarchitektur bis hin zum Abnahmetest des Endprodukts. Das stellt viele Institute vor große Herausforderungen.

Unsere ITGAIN-Kolleg*innen haben diesbezüglich langjährige Erfahrungen im Aufbau und in der Modernisierung von BI- und DWH-Architektur sowie in der DWH-Modernisierung gesammelt und kennen sich mit den gängigen Tools, wie z.B. JIRA zum Vorgangstracking und Application Lifecycle Management Systemen (ALM) für die operative Testdurchführung, aus.

Neuen Kommentar schreiben

Ihre E-Mail Adresse wird nicht veröffentlicht.

NEUESTE BEITRÄGE

Die drei größten Softwaretest-Mythen
05.06.2023

Die drei größten Softwaretest-Mythen

Sören Schmock

Softwaretests sind ein sehr wichtiger Bestandteil des Softwareentwicklungsprozesses, um die Qualität, Funktionalität und Sicherheit von Softwareprodukten zu gewährleisten. Doch wie bei vielen anderen Bereichen der Technik gibt es auch hier einige Mythen, die sich hartnäckig halten und die Arbeit der Tester erschweren oder sogar gefährden können. In diesem Blogbeitrag möchte ich drei der größten Softwaretest-Mythen aufdecken und erklären, warum sie nicht stimmen.

Expertise
Einführung von Protegrity - Ein Kundenprojektbericht
31.05.2023

Einführung von Protegrity - Ein Kundenprojektbericht

Leon Geitmann

Im Juli 2022 begann offiziell das Kundenprojekt „Einführung Protegrity“. Über die nächsten 6 Monate wurde dabei die neue Softwarekomponente Protegrity in die bestehende Infrastruktur eines IT-Dienstleisters im Bankenbereich implementiert. Worum es sich bei Protegrity handelt, warum es eingeführt wurde und wie dieses Projekt in etwa ablief, möchte ich in einem kurzen Projektbericht teilen.

Expertise
Welche Hürden gibt es bei Testdatengeneratoren im Softwaretest?
30.05.2023

Welche Hürden gibt es bei Testdatengeneratoren im Softwaretest?

Sören Schmock

Testdatengeneratoren sind Werkzeuge, die automatisch Daten erzeugen, die für den Softwaretest verwendet werden können. Sie können nützlich sein, um große Mengen von Daten zu erzeugen, die bestimmte Anforderungen erfüllen, wie z. B. Format, Typ oder Bereich. Allerdings eignen sich Testdatengeneratoren noch immer nur sehr bedingt für den Softwaretest.

Expertise