Data Model

  • Data Model Scorecard

    Objective review and data quality goals of data models

    Did you ever ask yourself which score your data model would achieve? Could you imagine  90%, 95% or even 100% across 10 categories of objective criteria?

    No?
    Yes?

    Either way, if you answered with “no” or “yes”, recommend using something to test the quality of your data model(s). For years there have been methods to test and ensure quality in software development, like ISTQB, IEEE, RUP, ITIL, COBIT and many more. In data warehouse projects I observed test methods testing everything: loading processes (ETL), data quality, organizational processes, security, …
    But data models? Never! But why?

  • Data Modeling Blogposts

  • Data Modeling Master Class

    Kompetenz in der Datenmodellierung

    Warum geben wir jedes Jahr Millionen Euro und Tausende Stunden für die Entwicklung von Lösungen aus, die nicht funktionieren?

    Die mangelhafte Erfassung und Formulierung von Geschäftsanforderungen führt zu einer enormen Ressourcenverschwendung. Datenmodelle verhindern diese Vergeudung von Zeit und Geld, indem sie Geschäftsterminologie und -anforderungen in präziser Form und auf verschiedenen Detailebenen erfassen und so eine flüssige Kommunikation zwischen Unternehmen und IT sicherstellen.

    Absolvieren Sie die Data Modeling Master Class, um Kompetenz in der Datenmodellierung zu erlangen. Die Data Modeling Master Class ist das Training zum Thema Datenmodellierung und wird mehrmals im Jahr öffentlich oder als spezielles virtuelles Training nur für Ihr Team angeboten.

     


     

    Inhalte

    Diese Data Modeling Master Class ist ein kompletter Datenmodellierungskurs, der über fünf Module hinweg praktische Techniken zur Erstellung konzeptioneller, logischer und physischer relationaler und dimensionaler sowie NoSQL-Datenmodelle vermittelt.

    Nachdem Sie die verschiedenen Arten und die einzelnen Schritte der Anforderungserfassung und -modellierung kennengelernt haben, wenden Sie einen Best-Practice-Ansatz zur Erstellung und Validierung von Datenmodellen mithilfe der Data Model Scorecard® an. Sie verstehen nicht nur, wie man ein Datenmodell erstellt, sondern vor allem, wie man ein Datenmodell optimal gestaltet.

    Diese Data Modeling Master Class umfasst drei Teile mit über 30 Übungen und 20 Stunden Unterricht:

    Grundlagen

    Nach Abschluss von Teil 1 sind Sie in der Lage, die Vorteile der Datenmodellierung zu erläutern, die fünf Vorgaben für die Erstellung eines Datenmodells anzuwenden und die einzelnen Datenmodellierungskomponenten (Entitäten, Attribute, Repräsentanten, Beziehungen, Subtypisierung, Schlüssel, Hierarchien und Netzwerke) richtig zu verwenden.

    Schema

    Am Ende von Teil 2 beherrschen Sie die Erstellung konzeptioneller, logischer und physischer relationaler und dimensionaler Datenmodelle. Sie sind außerdem in der Lage, NoSQL-Datenmodelle in Bezug auf die Modellierungsstruktur und den Ansatz von traditionellen Modellen zu unterscheiden.

    Scorecard

    Mit Abschluss von Teil 3 können Sie anhand der zehn Kategorien der Data Model Scorecard® Best Practices für Datenmodelle anwenden. Diese Kategorien sind Korrektheit, Vollständigkeit, Schema, Struktur, Abstraktion, Standards, Lesbarkeit, Definitionen, Konsistenz und Daten.

    Nach Abschluss der Data Modeling Master Class wissen Sie nicht nur, wie man ein Datenmodell erstellt, sondern auch, wie man ein Datenmodell wirklich gut erstellt. Mit Hilfe der Data Model Scorecard® können Sie in Ihr Datenmodell unterstützende und ergänzende Funktionen einbauen und die Qualität eines jeden Datenmodells bewerten. 

    Fallstudien und die Übungen vertiefen den Stoff und ermöglichen es Ihnen, das Gelernte in Ihren aktuellen Projekten anzuwenden.

     

    Die 10 wichtigsten Lernziele

    • Sie können die Komponenten der Datenmodellierung erklären und sie in Ihren Projekten anhand von Fragen identifizieren.
    • Sie können ein Datenmodell beliebiger Größe und Komplexität mit der gleichen Sicherheit lesen wie ein Buch.
    • Sie können jedes Datenmodell mit Hilfe von wichtigen "Einstellungen" (Umfang, Abstraktion, Zeitrahmen, Funktion und Format) sowie mit der Data Model Scorecard® validieren.
    • Wenden Sie Techniken zur Anforderungserhebung an, einschließlich Befragung, Artefaktanalyse, Prototyping und Arbeitsplatzbeobachtung
    • Sie erstellen relationale und dimensionale, konzeptionelle und logische Datenmodelle und kennen die Kompromisse auf der physischen Seite sowohl für RDBMS- als auch für NoSQL-Lösungen
    • Üben Sie das Aufspüren von Problemen der strukturellen Robustheit und der Verletzung von Richtlinien
    • Sie können erkennen, wann eine Abstraktion sinnvoll ist und wo Muster und Branchendatenmodelle uns einen großen Nutzen bringen können.
    • Die Verwendung einer Reihe von Vorlagen für die Erfassung und Validierung von Anforderungen und für die Erstellung von Datenprofilen
    • Bewertung von Definitionen auf Klarheit, Vollständigkeit und Richtigkeit
    • Verwendung von Data Vault und eines Unternehmensdatenmodells für eine erfolgreiche Enterprise-Architektur

    Muss Vorwissen vorhanden sein?

    Dieses Training erfordert keine Vorkenntnisse im Bereich der Datenmodellierung und ist daher an keine bestimmten Voraussetzungen gebunden. Dieses Training richtet sich an alle, die einen oder mehrere der folgenden Begriffe in ihrer Berufsbezeichnung haben: Daten, Analyst, Architekt, Entwickler, Datenbank und Modellierer.

    Alle aktuellen Termine zur Data Modeling Master Class finden Sie in unserer Academy.
    In deutscher SpracheDieses Training wird von uns in deutscher Sprache unterrichtet.

     

  • Data Modeling Master Class

    Competence in data modeling

    Why do we spend millions of euros and thousands of hours every year developing solutions that don't work?

    Poor capture and formulation of business requirements leads to a huge waste of resources. Data models prevent this waste of time and money by capturing business terminology and requirements in precise form and at multiple levels of detail, ensuring fluid communication between business and IT.

    Complete the Data Modeling Master Class to gain competency in data modeling. The Data Modeling Master Class is the training on data modeling and is offered several times a year to the public or as a special virtual training just for your team.

    This training requires no prior knowledge of data modeling and is therefore not tied to any specific prerequisites.

     


     

    Topics

     This training is being taught in German.

    This Master Class is a complete data modeling course, containing five modules of practical techniques for producing conceptual, logical, and physical relational and dimensional and NoSQL data models.

    After learning the styles and steps in capturing and modeling requirements, you will apply a best practices approach to building and validating data models through the Data Model Scorecard®. You will know not just how to build a data model, but how to build a data model well.

    This Data Modeling Master Class includes three parts with over 30 exercises and 20 hours of instruction:

    Basics

    After completing Part 1, you will be able to explain the benefits of data modeling, apply the five specifications for creating a data model, and properly use each of the data modeling components (entities, attributes, representatives, relationships, subtyping, keys, hierarchies, and networks).

    Schema

    By the end of Part 2, you will be proficient in creating conceptual, logical, and physical relational and dimensional data models. You will also be able to distinguish NoSQL data models from traditional models in terms of modeling structure and approach.

    Scorecard

    With the completion of Part 3, you will be able to apply best practices for data models using the ten categories of the Data Model Scorecard®. These categories are correctness, completeness, schema, structure, abstraction, standards, readability, definitions, consistency, and data.

    After completing the Data Modeling Master Class, you will not only know how to create a data model, but also how to create a data model really well. Using the Data Model Scorecard®, you will be able to build supporting and complementary features into your data model and evaluate the quality of any data model.

    Case studies and the exercises reinforce the material and allow you to apply what you have learned to your current projects.

    Top 10 Learning Objectives

    • Explain data modeling components and identify them on your projects by following a question-driven approach
    • Demonstrate reading a data model of any size and complexity with the same confidence as reading a book
    • Validate any data model with key "settings" (scope, abstraction, timeframe, function, and format) as well as through the Data Model Scorecard®
    • Apply requirements elicitation techniques including interviewing, artifact analysis, prototyping, and job shadowing
    • Build relational and dimensional conceptual and logical data models, and know the tradeoffs on the physical side for both RDBMS and NoSQL solutions
    • Practice finding structural soundness issues and standards violations
    • Recognize when to use abstraction and where patterns and industry data models can give us a great head start
    • Use a series of templates for capturing and validating requirements, and for data profiling
    • Evaluate definitions for clarity, completeness, and correctness
    • Leverage the Data Vault and enterprise data model for a successful enterprise architecture

     

    Prerequisites

    This course assumes no prior data modeling knowledge and, therefore, there are no prerequisites. This course is designed for anyone with one or more of these terms in their job title: "data", "analyst", "architect", "developer", "database", and "modeler".

     

     

  • Data Vault Articles

  • Open-Data-Vault-Models

  • Webinar - Model driven decision making

    An EXASOL Webinar serie

    We are back again after a long time, with a new webinar. The last one, we (Mathias and I) did together is almost four years ago. Time flies by! What's up this time?

    The fictitious company FastChangeCoTM has developed a possibility not only to manufacture Smart Devices, but also to extend the Smart Devices as wearables in the form of bio-sensors to clothing and living beings. With each of these devices, a large amount of (sensitive) data is generated, or more precisely: by recording, processing and evaluating personal and environmental data.