Data Warehouse Blueprints

Business Intelligence in der Praxis
 
 
Hanser (Verlag)
  • 1. Auflage
  • |
  • erschienen am 5. September 2016
  • |
  • 281 Seiten
 
E-Book | ePUB mit Wasserzeichen-DRM | Systemvoraussetzungen
E-Book | PDF mit Wasserzeichen-DRM | Systemvoraussetzungen
978-3-446-45111-7 (ISBN)
 
Data-Warehouse-Lösungen mit Blueprints erfolgreich umsetzen
Dieses Buch gibt Ihnen einen Überblick über eine typische Data-Warehouse-Architektur und zeigt anhand von zahlreichen Best Practice-Beispielen, wie Sie die einzelnen Komponenten eines Data Warehouses realisieren und betreiben können. Skalierbarkeit, Performance und Integration sind dabei die wichtigsten Erfolgsfaktoren.

Der kompakte und kompetente Leitfaden für Ihr Projekt
Warum benötigt man eine Staging Area? Wie sollen fehlende oder fehlerhafte Daten beim Ladeprozess behandelt werden? Ist es zweckmäßiger, einen oder mehrere Data Marts zu erstellen? Wo werden die Daten aus verschiedenen Datenquellen integriert und wie sollen sie historisiert werden? Zu diesen und vielen weiteren Fragen erhalten Sie Antworten sowie Tipps und Tricks aus der Praxis.

Wertvolles Know-how aus der Praxis
Profitieren Sie von der langjährigen Erfahrung der Autoren. Die vorgestellten Konzepte und Vorgehensweisen haben sich bereits in zahlreichen Projekten bewährt.

AUS DEM INHALT
Einleitung
Architektur
Datenmodellierung
Datenintegration
Design der DWH-Schichten
Physisches Datenbankdesign
BI-Anwendungen
Betrieb
  • Deutsch
  • München
  • |
  • Deutschland
  • 10,53 MB
978-3-446-45111-7 (9783446451117)
http://dx.doi.org/10.3139/9783446451117
weitere Ausgaben werden ermittelt
Claus Jordan, Dani Schnider, Joachim Wehner und Peter Welker sind Data-Warehouse-Architekten mit langjähriger Erfahrung aus zahlreichen BI-Projekten in unterschiedlichen Branchen. Ihr Fokus liegt vor allem in der breit gefächerten Oracle-Technologie - von der Datenbank über das Design, ETL, Frontends sowie Performance-Reviews bis hin zum Redesign von Data Warehouses.
1 - Inhalt [Seite 5]
2 - Geleitwort [Seite 14]
3 - Über dieses Buch [Seite 16]
4 - Die Autoren [Seite 18]
5 - 1 Einleitung [Seite 20]
5.1 - 1.1 Ziele dieses Buches [Seite 21]
5.2 - 1.2 Struktur dieses Buches [Seite 22]
5.3 - 1.3 Hinweis zur Anwendung dieses Buches [Seite 23]
6 - 2 Architektur [Seite 24]
6.1 - 2.1 Data Warehouse-Architektur [Seite 24]
6.1.1 - 2.1.1 Aufbau eines Data Warehouse [Seite 25]
6.1.2 - 2.1.2 Transformationsschritte [Seite 28]
6.1.3 - 2.1.3 Architekturgrundsätze [Seite 29]
6.2 - 2.2 Architektur BI-Anwendungen [Seite 32]
6.2.1 - 2.2.1 Die BI-Plattform zur Integration von Datenquellen [Seite 34]
6.2.2 - 2.2.2 Die BI-Plattform zur Vereinheitlichung der Frontends [Seite 36]
6.3 - 2.3 Datenhaltung [Seite 37]
6.3.1 - 2.3.1 Grenzen gängiger DWH/BI-Technologien [Seite 38]
6.3.2 - 2.3.2 Datenhaltung im Hadoop-Ecosystem [Seite 39]
6.3.3 - 2.3.3 In-Memory-Datenbanken [Seite 42]
7 - 3 Datenmodellierung [Seite 46]
7.1 - 3.1 Vorgehensweise [Seite 46]
7.1.1 - 3.1.1 Anforderungsgetriebene Modellierung [Seite 46]
7.1.2 - 3.1.2 Quellsystemgetriebene Modellierung [Seite 48]
7.1.3 - 3.1.3 Kombination der Ansätze [Seite 49]
7.2 - 3.2 Relationale Modellierung [Seite 49]
7.2.1 - 3.2.1 Darstellung von relationalen Datenmodellen [Seite 50]
7.2.2 - 3.2.2 Normalisierung [Seite 50]
7.2.3 - 3.2.3 Stammdaten und Bewegungsdaten [Seite 51]
7.2.4 - 3.2.4 Historisierung [Seite 51]
7.2.5 - 3.2.5 Relationales Core [Seite 53]
7.2.6 - 3.2.6 Corporate Information Factory [Seite 54]
7.2.7 - 3.2.7 Data Vault Modeling [Seite 54]
7.3 - 3.3 Dimensionale Modellierung [Seite 56]
7.3.1 - 3.3.1 Implementierung von dimensionalen Modellen [Seite 57]
7.3.1.1 - 3.3.1.1 Relationale Implementierung [Seite 58]
7.3.1.2 - 3.3.1.2 Multidimensionale Implementierung [Seite 59]
7.3.2 - 3.3.2 Dimensionen [Seite 60]
7.3.2.1 - 3.3.2.1 Fachliche Attribute [Seite 60]
7.3.2.2 - 3.3.2.2 Technische Attribute [Seite 60]
7.3.2.3 - 3.3.2.3 Hierarchien [Seite 61]
7.3.2.4 - 3.3.2.4 Conformed Dimensions [Seite 62]
7.3.2.5 - 3.3.2.5 Slowly Changing Dimensions [Seite 63]
7.3.2.6 - 3.3.2.6 Zeitdimension [Seite 66]
7.3.2.7 - 3.3.2.7 Bridge Tables [Seite 67]
7.3.2.8 - 3.3.2.8 Spezielle Dimensionen [Seite 69]
7.3.3 - 3.3.3 Fakten [Seite 70]
7.3.3.1 - 3.3.3.1 Kennzahlen [Seite 70]
7.3.3.2 - 3.3.3.2 Typen von Fakten [Seite 70]
7.3.4 - 3.3.4 Modellierung spezieller Problemstellungen [Seite 72]
7.3.4.1 - 3.3.4.1 Fakten unterschiedlicher Granularität und Rollen [Seite 72]
7.3.4.2 - 3.3.4.2 Gemeinsame Hierarchiestufen in verschiedenen Dimensionen [Seite 73]
7.3.4.3 - 3.3.4.3 Modellierungsgrundsätze für Dimensionen und Fakten [Seite 74]
7.3.5 - 3.3.5 Darstellung von dimensionalen Modellen [Seite 75]
7.3.5.1 - 3.3.5.1 ADAPT-Notation [Seite 75]
7.3.5.2 - 3.3.5.2 Entity-Relationship-Diagramme [Seite 77]
7.3.5.3 - 3.3.5.3 Data-Warehouse-Bus-Matrix [Seite 77]
7.3.6 - 3.3.6 Dimensionales Core [Seite 78]
7.4 - 3.4 Tools zur Datenmodellierung [Seite 79]
7.4.1 - 3.4.1 Tools für relationale Datenmodellierung [Seite 79]
7.4.2 - 3.4.2 Tools für dimensionale Datenmodellierung [Seite 80]
8 - 4 Datenintegration [Seite 82]
8.1 - 4.1 Data Profiling [Seite 83]
8.1.1 - 4.1.1 Probleme mangelnder Datenqualität [Seite 83]
8.1.2 - 4.1.2 Einsatz von Data Profiling [Seite 84]
8.2 - 4.2 ETL [Seite 85]
8.2.1 - 4.2.1 Aufgaben der ETL-Prozesse [Seite 86]
8.2.1.1 - 4.2.1.1 Extraktion aus Quellsystemen [Seite 86]
8.2.1.2 - 4.2.1.2 Transformationen [Seite 86]
8.2.1.3 - 4.2.1.3 Laden in die Zieltabellen [Seite 87]
8.2.2 - 4.2.2 ETL-Tools [Seite 87]
8.2.2.1 - 4.2.2.1 Funktionalität von ETL-Tools [Seite 89]
8.2.2.2 - 4.2.2.2 ETL oder ELT? [Seite 89]
8.2.2.3 - 4.2.2.3 Positionierung von ETL-Tools [Seite 91]
8.2.3 - 4.2.3 Performance-Aspekte [Seite 91]
8.2.3.1 - 4.2.3.1 Mengenbasierte statt datensatzbasierte Verarbeitung [Seite 91]
8.2.3.2 - 4.2.3.2 ELT-Tool statt ETL-Tool [Seite 92]
8.2.3.3 - 4.2.3.3 Reduktion der Komplexität [Seite 93]
8.2.3.4 - 4.2.3.4 Frühzeitige Mengeneinschränkung [Seite 94]
8.2.3.5 - 4.2.3.5 Parallelisierung [Seite 95]
8.2.4 - 4.2.4 Steuerung der ETL-Prozesse [Seite 97]
8.2.4.1 - 4.2.4.1 Protokollierung des ETL-Ablaufs [Seite 97]
8.2.4.2 - 4.2.4.2 Restartfähigkeit und Wiederaufsetzpunkte [Seite 98]
8.3 - 4.3 Extraktion und Delta-Ermittlung [Seite 99]
8.3.1 - 4.3.1 Delta-Extraktion im Quellsystem [Seite 100]
8.3.1.1 - 4.3.1.1 Änderungsmarker und Journaltabellen [Seite 100]
8.3.1.2 - 4.3.1.2 Delta-Ermittlung und Pending Commits [Seite 101]
8.3.1.3 - 4.3.1.3 Change Data Capture [Seite 102]
8.3.2 - 4.3.2 Voll-Extraktion und Delta-Abgleich im Data Warehouse [Seite 103]
8.3.2.1 - 4.3.2.1 Zwei Versionen des Vollabzugs in der Staging Area [Seite 104]
8.3.2.2 - 4.3.2.2 Vorteil einer Voll-Extraktion für die Delta-Ermittlung [Seite 106]
8.3.3 - 4.3.3 Wann verwende ich was? [Seite 106]
8.4 - 4.4 Fehlerbehandlung [Seite 107]
8.4.1 - 4.4.1 Fehlende Attribute [Seite 108]
8.4.1.1 - 4.4.1.1 Filtern von fehlerhaften Datensätzen [Seite 108]
8.4.1.2 - 4.4.1.2 Fehlerhafte Datensätze in Fehlertabelle schreiben [Seite 108]
8.4.1.3 - 4.4.1.3 Singletons auf Attributebene [Seite 109]
8.4.2 - 4.4.2 Unbekannte Codewerte [Seite 109]
8.4.2.1 - 4.4.2.1 Filtern von fehlerhaften Datensätzen [Seite 110]
8.4.2.2 - 4.4.2.2 Singletons auf Datensatzebene [Seite 110]
8.4.2.3 - 4.4.2.3 Generierung von Embryo-Einträgen [Seite 110]
8.4.3 - 4.4.3 Fehlende Dimensionseinträge [Seite 111]
8.4.3.1 - 4.4.3.1 Filtern von unvollständigen Fakten [Seite 112]
8.4.3.2 - 4.4.3.2 Referenz auf Singleton-Einträge [Seite 113]
8.4.3.3 - 4.4.3.3 Generieren von Embryo-Einträgen [Seite 114]
8.4.4 - 4.4.4 Doppelte Datensätze [Seite 115]
8.4.4.1 - 4.4.4.1 Verwendung von DISTINCT [Seite 116]
8.4.4.2 - 4.4.4.2 Nur ersten Datensatz übernehmen [Seite 116]
8.5 - 4.5 Qualitätschecks [Seite 116]
8.5.1 - 4.5.1 Qualitätschecks vor und während des Ladens [Seite 117]
8.5.2 - 4.5.2 Qualitätschecks nach dem Laden [Seite 118]
8.5.3 - 4.5.3 Qualitätschecks mithilfe von Test-Tools [Seite 118]
8.6 - 4.6 Real-Time BI [Seite 119]
8.6.1 - 4.6.1 Begriffsbestimmung [Seite 120]
8.6.2 - 4.6.2 Garantierte Verfügbarkeit von Informationen zu gegebenem Zeitpunkt [Seite 120]
8.6.3 - 4.6.3 Verfügbarkeit von Informationen simultan zur Entstehung [Seite 121]
8.6.4 - 4.6.4 Verfügbarkeit von Informationen kurz nach ihrer Entstehung [Seite 123]
8.6.4.1 - 4.6.4.1 Events und Batchverarbeitung [Seite 124]
8.6.4.2 - 4.6.4.2 Real-Time-Partitionen [Seite 125]
8.6.5 - 4.6.5 Zusammenfassung [Seite 126]
9 - 5 Design der DWH-Schichten [Seite 128]
9.1 - 5.1 Staging Area [Seite 129]
9.1.1 - 5.1.1 Gründe für eine Staging Area [Seite 130]
9.1.2 - 5.1.2 Struktur der Stage-Tabellen [Seite 131]
9.1.3 - 5.1.3 ETL-Logik für Stage-Tabellen [Seite 132]
9.1.3.1 - 5.1.3.1 Einschränkungen bei der Extraktion [Seite 133]
9.1.3.2 - 5.1.3.2 Transformation [Seite 133]
9.1.3.3 - 5.1.3.3 Sonstige Informationen [Seite 134]
9.2 - 5.2 Cleansing Area [Seite 134]
9.2.1 - 5.2.1 Gründe für eine Cleansing Area [Seite 134]
9.2.2 - 5.2.2 Struktur der Cleanse-Tabellen [Seite 135]
9.2.3 - 5.2.3 Beziehungen in der Cleansing Area [Seite 137]
9.2.4 - 5.2.4 ETL-Logik für Cleanse-Tabellen [Seite 139]
9.2.4.1 - 5.2.4.1 Einschränkungen bei der Extraktion [Seite 140]
9.2.4.2 - 5.2.4.2 Transformation [Seite 140]
9.2.4.3 - 5.2.4.3 Sonstige Informationen [Seite 141]
9.3 - 5.3 Core-Datenmodell allgemein [Seite 141]
9.3.1 - 5.3.1 Aufgaben und Anforderungen an das Core [Seite 142]
9.3.2 - 5.3.2 Stammdaten im Core [Seite 143]
9.3.3 - 5.3.3 Bewegungsdaten im Core [Seite 143]
9.3.4 - 5.3.4 Beziehungen im Core [Seite 143]
9.3.5 - 5.3.5 Datenmodellierungsmethoden für das Core [Seite 144]
9.4 - 5.4 Core-Datenmodell relational mit Kopf- und Versionstabellen [Seite 145]
9.4.1 - 5.4.1 Historisierung von Stammdaten mit Kopf- und Versionstabellen [Seite 146]
9.4.2 - 5.4.2 Struktur der Stammdatentabellen [Seite 147]
9.4.2.1 - 5.4.2.1 Tabellenspalten und Schlüssel [Seite 148]
9.4.2.2 - 5.4.2.2 Beziehungen (1:n) zwischen Stammdaten [Seite 151]
9.4.2.3 - 5.4.2.3 Beziehungen (m:n) zwischen Stammdaten [Seite 152]
9.4.3 - 5.4.3 ETL-Logik für Stammdatentabellen [Seite 154]
9.4.3.1 - 5.4.3.1 Lookups (Schritt 1) [Seite 155]
9.4.3.2 - 5.4.3.2 Outer Join (Schritt 2) [Seite 156]
9.4.3.3 - 5.4.3.3 Neue Datensätze (Schritt 3) [Seite 160]
9.4.3.4 - 5.4.3.4 Schließen einer Version/Fall 1 (Schritt 4) [Seite 161]
9.4.3.5 - 5.4.3.5 Aktualisieren/Fall 2 (Schritt 5) [Seite 161]
9.4.3.6 - 5.4.3.6 Versionieren/Fall 3 und 4 (Schritt 6) [Seite 161]
9.4.3.7 - 5.4.3.7 Singletons [Seite 161]
9.4.4 - 5.4.4 Typen von Bewegungsdaten [Seite 162]
9.4.4.1 - 5.4.4.1 Transaction Tables [Seite 163]
9.4.4.2 - 5.4.4.2 Snapshot Tables [Seite 163]
9.4.4.3 - 5.4.4.3 Snapshot Tables versioniert [Seite 164]
9.4.5 - 5.4.5 Struktur der Bewegungstabellen [Seite 165]
9.4.5.1 - 5.4.5.1 Tabellenspalten und Schlüssel [Seite 166]
9.4.5.2 - 5.4.5.2 Beziehungen zu Stammdaten [Seite 169]
9.4.6 - 5.4.6 ETL-Logik für Bewegungstabellen [Seite 172]
9.4.6.1 - 5.4.6.1 Lookups [Seite 173]
9.4.6.2 - 5.4.6.2 Sonstige Informationen [Seite 174]
9.4.7 - 5.4.7 Views für externen Core-Zugriff [Seite 174]
9.4.7.1 - 5.4.7.1 Views für Stammdaten [Seite 175]
9.4.7.2 - 5.4.7.2 Views für Bewegungsdaten [Seite 179]
9.5 - 5.5 Core-Datenmodell relational mit Data Vault [Seite 180]
9.5.1 - 5.5.1 Stammdaten [Seite 180]
9.5.2 - 5.5.2 Beziehungen [Seite 181]
9.5.3 - 5.5.3 Bewegungsdaten [Seite 181]
9.5.4 - 5.5.4 Historisierung [Seite 182]
9.5.5 - 5.5.5 Struktur der Tabellen [Seite 182]
9.5.5.1 - 5.5.5.1 Hubtabellen - Tabellenspalten und Schlüssel [Seite 182]
9.5.5.2 - 5.5.5.2 Satellitentabellen - Tabellenspalten und Schlüssel [Seite 183]
9.5.5.3 - 5.5.5.3 Linktabellen - Tabellenspalten und Schlüssel [Seite 184]
9.5.6 - 5.5.6 ETL-Logik [Seite 185]
9.5.7 - 5.5.7 Views für externen Core-Zugriff auf das Data-Vault-Datenmodell [Seite 186]
9.5.7.1 - 5.5.7.1 Views für Stammdaten (ein Satellite pro Hub bzw. Link) [Seite 186]
9.5.7.2 - 5.5.7.2 Views für Stammdaten (mehrere Satellites pro Hub bzw. Link) [Seite 189]
9.6 - 5.6 Core-Datenmodell dimensional [Seite 192]
9.6.1 - 5.6.1 Star- oder Snowflake-Schema [Seite 193]
9.6.1.1 - 5.6.1.1 Star-Schema [Seite 193]
9.6.1.2 - 5.6.1.2 Snowflake-Schema [Seite 194]
9.6.2 - 5.6.2 Historisierung von Stammdaten mit SCD [Seite 196]
9.6.3 - 5.6.3 Struktur der Dimensionstabellen (Snowflake) [Seite 199]
9.6.3.1 - 5.6.3.1 Tabellenspalten und Schlüssel [Seite 200]
9.6.3.2 - 5.6.3.2 Beziehungen zwischen Hierarchiestufen [Seite 203]
9.6.4 - 5.6.4 ETL-Logik für Dimensionstabellen (Snowflake) [Seite 204]
9.6.4.1 - 5.6.4.1 Lookup [Seite 204]
9.6.4.2 - 5.6.4.2 Weitere Schritte [Seite 205]
9.6.5 - 5.6.5 Struktur der Faktentabellen (Snowflake) [Seite 205]
9.6.6 - 5.6.6 ETL-Logik für Faktentabellen (Snowflake) [Seite 207]
9.6.7 - 5.6.7 n:m-Beziehungen im dimensionalen Core [Seite 207]
9.7 - 5.7 Marts [Seite 209]
9.7.1 - 5.7.1 ROLAP oder MOLAP? [Seite 210]
9.7.2 - 5.7.2 Historisierung von Data Marts [Seite 211]
9.7.3 - 5.7.3 Star- oder Snowflake-Schema (ROLAP) [Seite 212]
9.7.4 - 5.7.4 Struktur der Dimensionstabellen (Star) [Seite 213]
9.7.4.1 - 5.7.4.1 Tabellenspalten und Schlüssel [Seite 213]
9.7.4.2 - 5.7.4.2 Beispiel für Conformed Rollup [Seite 216]
9.7.4.3 - 5.7.4.3 Beispiel für Dimension mit mehreren Hierarchien [Seite 217]
9.7.5 - 5.7.5 ETL-Logik für Dimensionstabellen (Star) [Seite 218]
9.7.5.1 - 5.7.5.1 Extraktion aus dem relationalen Core [Seite 219]
9.7.5.2 - 5.7.5.2 Extraktion aus dem dimensionalen Core [Seite 226]
9.7.6 - 5.7.6 Struktur der Faktentabellen (Star-Schema) [Seite 228]
9.7.7 - 5.7.7 ETL-Logik für Faktentabellen (Star) [Seite 229]
9.7.8 - 5.7.8 Multidimensionale Data Marts [Seite 229]
9.7.8.1 - 5.7.8.1 Dimensionen (Cube) [Seite 230]
9.7.8.2 - 5.7.8.2 Fakten (Cube) [Seite 231]
10 - 6 Physisches Datenbankdesign [Seite 234]
10.1 - 6.1 Indexierung [Seite 235]
10.1.1 - 6.1.1 Staging Area [Seite 236]
10.1.2 - 6.1.2 Cleansing Area [Seite 236]
10.1.3 - 6.1.3 Core [Seite 236]
10.1.4 - 6.1.4 Data Marts [Seite 237]
10.2 - 6.2 Constraints [Seite 238]
10.2.1 - 6.2.1 Primary Key Constraints [Seite 238]
10.2.2 - 6.2.2 Foreign Key Constraints [Seite 239]
10.2.3 - 6.2.3 Unique Constraints [Seite 240]
10.2.4 - 6.2.4 Check Constraints [Seite 240]
10.2.5 - 6.2.5 NOT NULL Constraints [Seite 241]
10.3 - 6.3 Partitionierung [Seite 241]
10.3.1 - 6.3.1 Grundprinzip von Partitionierung [Seite 242]
10.3.2 - 6.3.2 Gründe für Partitionierung [Seite 242]
10.3.3 - 6.3.3 Partitionierung in Staging und Cleansing Area [Seite 243]
10.3.4 - 6.3.4 Partitionierung im Core [Seite 244]
10.3.5 - 6.3.5 Partitionierung in den Data Marts [Seite 244]
10.4 - 6.4 Datenkomprimierung [Seite 245]
10.4.1 - 6.4.1 Redundanz [Seite 246]
10.4.2 - 6.4.2 Wörterbuchmethode/Tokenbasierte Reduktion [Seite 246]
10.4.3 - 6.4.3 Entropiekodierung [Seite 246]
10.4.4 - 6.4.4 Deduplikation [Seite 247]
10.4.5 - 6.4.5 Komprimierung bei spaltenorientierter Datenhaltung [Seite 247]
10.5 - 6.5 Aggregationen [Seite 248]
10.5.1 - 6.5.1 Vorberechnete Aggregationen [Seite 249]
10.5.2 - 6.5.2 Query Rewrite [Seite 249]
10.5.3 - 6.5.3 Einsatz im Data Warehouse [Seite 250]
11 - 7 BI-Anwendungen [Seite 252]
11.1 - 7.1 Überblick [Seite 252]
11.2 - 7.2 Standardberichte [Seite 255]
11.3 - 7.3 Ad-hoc-Analyse [Seite 257]
11.4 - 7.4 BI-Portale [Seite 258]
12 - 8 Betrieb [Seite 260]
12.1 - 8.1 Release-Management [Seite 260]
12.1.1 - 8.1.1 Kategorisierung der Anforderungen [Seite 261]
12.1.2 - 8.1.2 Schnittstellen zu Quellsystemen [Seite 262]
12.1.3 - 8.1.3 Umgang mit historischen Daten [Seite 264]
12.1.4 - 8.1.4 Datenbankumgebungen [Seite 265]
12.2 - 8.2 Deployment [Seite 267]
12.2.1 - 8.2.1 Manuelles Deployment [Seite 267]
12.2.2 - 8.2.2 Filebasiertes Deployment [Seite 268]
12.2.3 - 8.2.3 Repository-basiertes Deployment [Seite 269]
12.2.4 - 8.2.4 Kombiniertes Deployment [Seite 269]
12.3 - 8.3 Monitoring [Seite 271]
12.3.1 - 8.3.1 Betriebsmonitoring [Seite 271]
12.3.2 - 8.3.2 System und DB-Monitoring [Seite 271]
12.3.3 - 8.3.3 ETL-Monitoring [Seite 271]
12.3.4 - 8.3.4 Performance-Monitoring [Seite 272]
12.4 - 8.4 Migration [Seite 274]
12.4.1 - 8.4.1 Datenbank [Seite 275]
12.4.2 - 8.4.2 ETL-Tool [Seite 276]
12.4.3 - 8.4.3 BI-Tools [Seite 277]
13 - Literatur [Seite 278]
14 - Index [Seite 280]

Dateiformat: ePUB
Kopierschutz: Wasserzeichen-DRM (Digital Rights Management)

Systemvoraussetzungen:

Computer (Windows; MacOS X; Linux): Verwenden Sie eine Lese-Software, die das Dateiformat EPUB verarbeiten kann: z.B. Adobe Digital Editions oder FBReader - beide kostenlos (siehe E-Book Hilfe).

Tablet/Smartphone (Android; iOS): Installieren Sie bereits vor dem Download die kostenlose App Adobe Digital Editions (siehe E-Book Hilfe).

E-Book-Reader: Bookeen, Kobo, Pocketbook, Sony, Tolino u.v.a.m. (nicht Kindle)

Das Dateiformat ePUB ist sehr gut für Romane und Sachbücher geeignet - also für "fließenden" Text ohne komplexes Layout. Bei E-Readern oder Smartphones passt sich der Zeilen- und Seitenumbruch automatisch den kleinen Displays an. Mit Wasserzeichen-DRM wird hier ein "weicher" Kopierschutz verwendet. Daher ist technisch zwar alles möglich - sogar eine unzulässige Weitergabe. Aber an sichtbaren und unsichtbaren Stellen wird der Käufer des E-Books als Wasserzeichen hinterlegt, sodass im Falle eines Missbrauchs die Spur zurückverfolgt werden kann.

Weitere Informationen finden Sie in unserer E-Book Hilfe.


Dateiformat: PDF
Kopierschutz: Wasserzeichen-DRM (Digital Rights Management)

Systemvoraussetzungen:

Computer (Windows; MacOS X; Linux): Verwenden Sie zum Lesen die kostenlose Software Adobe Reader, Adobe Digital Editions oder einen anderen PDF-Viewer Ihrer Wahl (siehe E-Book Hilfe).

Tablet/Smartphone (Android; iOS): Installieren Sie die kostenlose App Adobe Digital Editions oder eine andere Lese-App für E-Books (siehe E-Book Hilfe).

E-Book-Reader: Bookeen, Kobo, Pocketbook, Sony, Tolino u.v.a.m. (nur bedingt: Kindle)

Das Dateiformat PDF zeigt auf jeder Hardware eine Buchseite stets identisch an. Daher ist eine PDF auch für ein komplexes Layout geeignet, wie es bei Lehr- und Fachbüchern verwendet wird (Bilder, Tabellen, Spalten, Fußnoten). Bei kleinen Displays von E-Readern oder Smartphones sind PDF leider eher nervig, weil zu viel Scrollen notwendig ist. Mit Wasserzeichen-DRM wird hier ein "weicher" Kopierschutz verwendet. Daher ist technisch zwar alles möglich - sogar eine unzulässige Weitergabe. Aber an sichtbaren und unsichtbaren Stellen wird der Käufer des E-Books als Wasserzeichen hinterlegt, sodass im Falle eines Missbrauchs die Spur zurückverfolgt werden kann.

Weitere Informationen finden Sie in unserer E-Book Hilfe.


Download (sofort verfügbar)

33,99 €
inkl. 7% MwSt.
Download / Einzel-Lizenz
ePUB mit Wasserzeichen-DRM
siehe Systemvoraussetzungen
PDF mit Wasserzeichen-DRM
siehe Systemvoraussetzungen
Hinweis: Die Auswahl des von Ihnen gewünschten Dateiformats und des Kopierschutzes erfolgt erst im System des E-Book Anbieters
E-Book bestellen