Zielgruppe
IT/Data Warehouse Berater, Systemarchitekten, Datenmodellierer, Anwendungsentwickler, Datenbankadministratoren, Daten/Business Analysten, Daten- und Informationsverantwortliche, IT/BI Projektleiter, Studierende der Informatik oder Wirtschaftsinformatik.
Vorraussetzungen
Dieser Kurs setzt keine besonderen Vorkenntnisse in der Datenmodellierung voraus. Ein Grundverständnis von Datenbanken und relationaler Datenmodellierung ist von Vorteil. Die Inhalte werden in Vortragsform vermittelt und anhand konkreter Beispiele aus der Projektpraxis verdeutlicht.
Seminarinhalt
Konzeptuelle, logische und physische Datenmodelle ermöglichen, ein Verständnis der Geschäftsregeln zwischen den Geschäftsobjekten abzubilden. Auf Grund der Abhängigkeiten der Modelle zueinander und ihrer unterschiedlichen Schwerpunkte haben Fachabteilungen und IT-Abteilung ein gemeinsames Kommunikationsmedium, mit dem neue Anforderungen definiert, aber auch Fehler abteilungsübergreifend analysiert werden können. Durch das Einhalten genereller Notationsstandards und Modellierungsprinzipien sowie das Anwenden kleinerer Regeln ist das Lesen eines Datenmodells für alle Stakeholder schnell zu erlernen.
Eine der großen Herausforderung bei der Erstellung eines Datenmodels ist die Anforderungsanalyse. Gerade in großen Organisationen ist es wichtig, dass das Datenmodell in die Unternehmensarchitektur passt. Mit Hilfe von Interviews mit den Stakeholdern und der Erstellung von Prototypen wird schrittweise das Datenmodell für die entsprechenden Anforderungen entwickelt. Besondere Fragetechniken im Interview helfen dabei, das Datenmodell anforderungsgerecht zu erstellen. Auch wenn Definitionen nicht direkt im Datenmodell erscheinen, sind sie in ihrer Gesamtheit für ein präzises Datenmodell verantwortlich. Regeln für klare und vollständige Formulierungen tragen zum Verständnis des Modells bei.
Eine besondere Rolle bei der Erstellung von logischen und physischen Datenmodellen haben die Metadaten. Mit Hilfe von Domains wird erreicht, dass Daten definierte Regeln erfüllen, bevor sie geladen werden. Der richtige Einsatz von Metadaten ermöglicht neben der Datenqualitätsprüfung auch viele Möglichkeiten der Steuerung und Zurückverfolgung.
Übersicht des Seminarinhaltes:
- Allgemeine Grundlagen der Datenmodellierung
- Einführung in die Data Model Scorecard® (Framework von Steve Hoberman)
- Anforderungsanalyse und Validierung
- Verständnis und Anwendung von konzeptionellen, logischen und physischen Datenmodellen
- Prinzipien der Datenmodellierung
- Gezieltes Einsetzen von generischen Modellen
- Verwendung von Namensstandards
- Optimale Darstellung von Datenmodellen
- Formulierung von klaren, korrekten und vollständigen Definitionen
- Datenmodelle für eine unternehmensweite Architektur
- Qualitätssicherung mit Hilfe von Metadaten
Falls Sie Fragen haben, wenden Sie sich bitte an Herrn Sven Wiener.