Gutes Datenqualität-Management (DQM) ist der Schlüssel für dauerhaft hohe Datenqualität

Bei ITGAIN verstehen wir DQM als kontinuierliche Maßnahme. Hierzu muss ein wiederkehrender Prozess definiert und implementiert werden, in dem in mehreren Schritten Top-Down Datenqualitätsziele festgelegt und deren Umsetzung überprüft werden. Nur so kann dauerhaft hohe Datenqualität im Unternehmen sichergestellt werden.

Voraussetzung hierfür der Aufbau einer DQ-Organisation die z.B.  für die Zuordnung von Rollen, Aufgaben und Datenverantwortlichkeiten als auch die Implementierung der DQ-Prozesse im Rahmen der Ablauforganisation verantwortlich zeichnet. Dies umfasst auch die Kommunikation von DQ-Ergebnissen, das Änderung-Management sowie den Umgang mit Störungen.

Zu den wesentliche Ergebnistypen einer DQ Strategie gehören:

  • Eine Dublettensuche in großen Datenmengen
  • Eine Datenprofilierung durch Ermittlung von Ist-Analyse-Datenprofilen für alle relevanten Systeme (z.B. relationalen Datenbanken, XML Daten bis hin zu Key-Value-Datenbanken und nachrichtenbasierten Systemen  
  • Fachlichen Anforderungsaufnahme und Konzeption der DQ-Regeln, sowie deren technische Implementierung in der entsprechen Systemlandschaft
  • Eine DQ-Kennzahlenbaum für Geschäftsobjekte und Geschäftsprozesse sowie die Implementierung und die Ergebnisvisualisierung als Kennzahlen-Lineage in DQ-Werkzeugen und marktüblichen BI-Produkten.

Zusätzlich zu diesen Themen ist auch die Frage der technischen Integration der DQ-Strategie in die bestehende Systemlandschaft, die Frage ob ein zentraler oder dezentraler Ansatz gewählt wird  und die  Auswahl der geeigneter Techniken und Tools ein wesentlicher Bestandteil einer guten DQ Strategie und langfristig angelegten.

Neuen Kommentar schreiben

Ihre E-Mail Adresse wird nicht veröffentlicht.

NEUESTE BEITRÄGE

Die drei größten Softwaretest-Mythen
05.06.2023

Die drei größten Softwaretest-Mythen

Sören Schmock

Softwaretests sind ein sehr wichtiger Bestandteil des Softwareentwicklungsprozesses, um die Qualität, Funktionalität und Sicherheit von Softwareprodukten zu gewährleisten. Doch wie bei vielen anderen Bereichen der Technik gibt es auch hier einige Mythen, die sich hartnäckig halten und die Arbeit der Tester erschweren oder sogar gefährden können. In diesem Blogbeitrag möchte ich drei der größten Softwaretest-Mythen aufdecken und erklären, warum sie nicht stimmen.

Expertise
Einführung von Protegrity - Ein Kundenprojektbericht
31.05.2023

Einführung von Protegrity - Ein Kundenprojektbericht

Leon Geitmann

Im Juli 2022 begann offiziell das Kundenprojekt „Einführung Protegrity“. Über die nächsten 6 Monate wurde dabei die neue Softwarekomponente Protegrity in die bestehende Infrastruktur eines IT-Dienstleisters im Bankenbereich implementiert. Worum es sich bei Protegrity handelt, warum es eingeführt wurde und wie dieses Projekt in etwa ablief, möchte ich in einem kurzen Projektbericht teilen.

Expertise
Welche Hürden gibt es bei Testdatengeneratoren im Softwaretest?
30.05.2023

Welche Hürden gibt es bei Testdatengeneratoren im Softwaretest?

Sören Schmock

Testdatengeneratoren sind Werkzeuge, die automatisch Daten erzeugen, die für den Softwaretest verwendet werden können. Sie können nützlich sein, um große Mengen von Daten zu erzeugen, die bestimmte Anforderungen erfüllen, wie z. B. Format, Typ oder Bereich. Allerdings eignen sich Testdatengeneratoren noch immer nur sehr bedingt für den Softwaretest.

Expertise