Data Modeling Master Class

Die Data Modeling Master Class ist ein dreitägiger praxisorientierter Datenmodellierungskurs zum Erstellen von konzeptuellen, logischen und physischen sowie relationalen, dimensionalen und NoSQL Datenmodellen. Nachdem Sie die unterschiedlichen Vorgehensweisen zum Erfassen der Modellierungsanforderungen erlernt haben, werden Sie mit einem Best Practices Approach Datenmodelle erstellen und mit der Data Model Scorecard® validieren.

Bei der Data Modeling Master Class handelt es sich um eine Methodenschulung zur Vermittlung eines grundsätzlichen, methodischen Vorgehens bei der Entwicklung von Datenmodellen. Sie können danach nicht nur Datenmodelle erstellen, sondern wissen auch, wie man qualitativ hochwertige Datenmodelle entwirft. Praktische Beispiele vervollständigen die Unterlagen und unterstützen Sie später in Ihren laufenden Projekten.

Facts

Teilnehmerpreise:

Regulär: €1.920,- zzgl. MwSt. inkl. Verpflegung und Seminarunterlagen
Studenten: auf Anfrage
Gruppenrabatt: 10% ab dem 3 Teilnehmer
Early Bird: 10% bis 10 Wochen vor Seminarstart
Kursdauer: 3 Tage

Tagungshotel:
Auf Anfrage

In-House Seminare: Bei Anfrage ab 5 Teilnehmern

Im Falle einer Absage durch den Teilnehmer erfolgt keine Erstattung des Teilnehmerpreises. Es besteht jedoch die Möglichkeit, den ausgefallenen Teilnehmer durch eine andere Person zu ersetzten.

Der Teilnehmerpreis beinhaltet sämtliche Unterrichtsmaterialien sowie die Verpflegung während des Kurses.

Wichtiger Hinweis: Die Kurssprache ist Deutsch, die Unterrichtsmaterialien sind jedoch in englischer Sprache verfasst.

Zielgruppe

IT/Data Warehouse Berater, Systemarchitekten, Datenmodellierer, Anwendungsentwickler, Datenbankadministratoren, Daten/Business Analysten, Daten- und Informationsverantwortliche, IT/BI Projektleiter, Studierende der Informatik oder Wirtschaftsinformatik.

Vorraussetzungen

Dieser Kurs setzt keine besonderen Vorkenntnisse in der Datenmodellierung voraus. Ein Grundverständnis von Datenbanken und relationaler Datenmodellierung ist von Vorteil. Die Inhalte werden in Vortragsform vermittelt und anhand konkreter Beispiele aus der Projektpraxis verdeutlicht.

Kursinhalt

Konzeptuelle, logische und physische Datenmodelle ermöglichen, ein Verständnis der Geschäftsregeln zwischen den Geschäftsobjekten abzubilden. Auf Grund der Abhängigkeiten der Modelle zueinander und ihrer unterschiedlichen Schwerpunkte haben Fachabteilungen und IT-Abteilung ein gemeinsames Kommunikationsmedium, mit dem neue Anforderungen definiert, aber auch Fehler abteilungsübergreifend analysiert werden können. Durch das Einhalten genereller Notationsstandards und Modellierungsprinzipien sowie das Anwenden kleinerer Regeln ist das Lesen eines Datenmodells für alle Stakeholder schnell zu erlernen.

Eine der großen Herausforderung bei der Erstellung eines Datenmodels ist die Anforderungsanalyse. Gerade in großen Organisationen ist es wichtig, dass das Datenmodell in die Unternehmensarchitektur passt. Mit Hilfe von Interviews mit den Stakeholdern und der Erstellung von Prototypen wird schrittweise das Datenmodell für die entsprechenden Anforderungen entwickelt. Besondere Fragetechniken im Interview helfen dabei, das Datenmodell anforderungsgerecht zu erstellen. Auch wenn Definitionen nicht direkt im Datenmodell erscheinen, sind sie in ihrer Gesamtheit für ein präzises Datenmodell verantwortlich. Regeln für klare und vollständige Formulierungen tragen zum Verständnis des Modells bei.
Eine besondere Rolle bei der Erstellung von logischen und physischen Datenmodellen haben die Metadaten. Mit Hilfe von Domains wird erreicht, dass Daten definierte Regeln erfüllen, bevor sie geladen werden. Der richtige Einsatz von Metadaten ermöglicht neben der Datenqualitätsprüfung auch viele Möglichkeiten der Steuerung und Zurückverfolgung.

Übersicht des Seminarinhaltes:

  • Allgemeine Grundlagen der Datenmodellierung
  • Einführung in die Data Model Scorecard® (Framework von Steve Hoberman)
  • Anforderungsanalyse und Validierung
  • Verständnis und Anwendung von konzeptionellen, logischen und physischen Datenmodellen
  • Prinzipien der Datenmodellierung
  • Gezieltes Einsetzen von generischen Modellen
  • Verwendung von Namensstandards
  • Optimale Darstellung von Datenmodellen
  • Formulierung von klaren, korrekten und vollständigen Definitionen
  • Datenmodelle für eine unternehmensweite Architektur
  • Qualitätssicherung mit Hilfe von Metadaten

Falls Sie Fragen haben, wenden Sie sich bitte an Herrn Sven Wiener.

Anmeldung