Bei einem Kunden hatte ich eine spannende Diskussion über die Frage woher eigentlich Data Vault kommt. Woher im Sinne von: Ist es vom Himmel gefallen oder wurde Data Vault aus anderen Modellierungsarten abgeleitet. Ein naheliegender Gedanke ist, dass Data Vault aus dem Anchor Modeling entstanden ist. Nein, das nicht. Anchor Modeling wurde zum ersten Mal in einem Data Warehouse im Jahr 2004 bei einer Versicherung eingesetzt. Dazu aber später ein anderer Blogpost.

Wie bereits beschrieben, hat Dan Linstedt in den 90ern des letzten Jahrhunderts Data Vault erfunden, daran geforscht und es entwickelt. Bis zur Veröffentlichung im Jahr 2001 hat er rund zehn Jahre seiner Zeit in diese Modellierungsmethode investiert.

Daniel Linstedt veröffentlicht nach und nach was in Data Vault 2.0 an Neuem dazu kommt. Ich möchte euch hier einen Überblick geben, was der aktuelle Stand ist und für euch die Entwicklung weiter verfolgen.

Daniel Linstedt hat auf LinkedIn eine knappe Zusammenfassung gepostet, die ich euch hier wiedergeben möchte.

Data Vault 2.0 geht weit über Data Vault 1.0 hinaus. War Data Vault 1.0 auf die Modellierung fokussiert, betrachtet Data Vault 2.0 auch die Architektur, die agile Vorgehensweise bei der Implementierung, vertieft die Performanceaspekte des Data Vault und integriert Technologien wie Hadoop:

Do You Know If Your Data Warehouse Flexible, Scalable, Secure and Will It Stand The Test Of Time And Avoid Being Part Of The Dreaded "Life Cycle"?

The Data Vault took the Data Warehouse world by storm when it was released in 2001. Some of the world's largest and most complex data warehouse situations understood the value it gave especially with the capabilities of unlimited scaling, flexibility and security.

Here is what industry leaders say about the Data Vault

"The Data Vault is the optimal choice for modeling the EDW in the DW 2.0 framework" - Bill Inmon, The Father of Data Warehousing

"The Data Vault is foundationally strong and an exceptionally scalable architecture" - Stephen Brobst, CTO, Teradata

"The Data Vault should be considered as a potential standard for RDBMS-based analytic data management by organizations looking to achieve a high degree of flexibility, performance and openness" - Doug Laney, Deloitte Analytics Institute

"I applaud Dan's contribution to the body of Business Intelligence and Data Warehousing knowledge and recommend this book be read by both data professionals and end users" - Howard Dresner, From the Foreword - Speaker, Author, Leading Research Analyst and Advisor

You have in your hands the work, experience and testing of 2 decades of building data warehouses. The Data Vault model and methodology has proven itself in hundreds (perhaps thousands) of solutions in Insurance, Crime-Fighting, Defense, Retail, Finance, Banking, Power, Energy, Education, High-Tech and many more.

Learn the techniques and implement them and learn how to build your Data Warehouse faster than you have ever done before while designing it to grow and scale no matter what you throw at it.

Ready to "Super Charge Your Data Warehouse"?

You can buy it here, at Dan Linstedts webpage.

»The key, the whole key, and nothing but the key. So help me Codd!« (»Der Schlüssel, der ganze Schlüssel und nichts als der Schlüssel. So wahr mir Codd helfe!«)

Eine kleine Historie zu Data Vault

In den 1960er Jahren hat Edgar F. Codd das relationale Modell entwickelt, das zur Grundlage für relationale Datenbanken wurde. Die Normalisierung von Datenmodellen ist ein Aspekt des relationalen Modells und führte unter anderem zu Normalformen (NF), wie z.B. 1NF, 2NF, 3NF, 4NF, 5NF, 6NF und der Boyce-Codd-Normalform (BCNF), die sich zwischen der 3NF und 4NF einordnet. Die 3NF wird bis heute erfolgreich in operativen Systemen für das On-Line Transaction Processing (OLTP) verwendet.

Unterkategorien