Die vorherrschenden Topologien der Data Warehouse-Modellierung (Star, Snowflake) sind auf Eins-zu-Viele-Beziehungen ausgelegt. Die Lesbarkeit, Leistung und Struktur von Abfragen verschlechtert sich erheblich, wenn in diesen Modellierungsschemata eine Viele-zu-Viele-Beziehung besteht. Welche Möglichkeiten gibt es, um eine Viele-zu-Viele-Beziehung zwischen Dimensionen oder zwischen der Faktentabelle und einer Dimension in einem Data Warehouse zu …
Ich habe festgestellt, dass mein Unternehmen einen ELT-Prozess (Extract-Load-Transform) anstelle eines ETL-Prozesses (Extract-Transform-Load) verwendet. Was sind die Unterschiede zwischen den beiden Ansätzen und in welchen Situationen wäre einer "besser" als der andere? Es wäre großartig, wenn Sie einige Beispiele nennen könnten.
Diese Frage wurde von Stack Overflow migriert, da sie in Stack Exchange für Datenbankadministratoren beantwortet werden kann. Vor 5 Jahren migriert . Ich optimiere ein Data Warehouse mithilfe von Indizes. Ich bin ziemlich neu in SQL Server 2014. Microsoft beschreibt Folgendes: "Wir betrachten den Clustered-Columnstore-Index als Standard für das Speichern …
Welche Auswirkungen haben die Erstellung von Abfragen und die Leistung bei der Verwendung einer vom System versionierten temporalen Tabelle (neu in SQL Server 2016), wenn diese Funktion zum langsamen Ändern von Dimensionen in einem großen relationalen Data Warehouse verwendet wird? Angenommen, ich habe eine CustomerDimension von 100.000 Zeilen mit einer …
Geschlossen. Diese Frage ist nicht zum Thema . Derzeit werden keine Antworten akzeptiert. Möchten Sie diese Frage verbessern? Aktualisieren Sie die Frage, damit sie für Stack Exchange-Datenbankadministratoren thematisch relevant ist. Geschlossen vor 4 Jahren . Ich frage mich, dass diese Frage noch nicht gestellt wurde. Google hat für mich nur …
Ich lade gelegentlich öffentlich verfügbare Datensätze in Form von Postgres-dBs herunter. Diese Datensätze werden vom Repository-Host im Laufe der Zeit aktualisiert / geändert / erweitert. Gibt es einen Postgres-Befehl oder ein Tool (idealerweise FOSS), mit dem die Unterschiede zwischen einer ALTEN und einer NEUEN Postgres-Datenbank angezeigt werden können? (Es wird …
Ich muss dynamische Felder und Werte in einem großen Datawarehouse für das Speichern des API-Anforderungsprotokolls unterstützen. Mein Anwendungsfall ist, dass ich alle API-Anforderungs-Abfragezeichenfolgen speichern und in der Lage sein muss, in Zukunft eine Abfrage für sie durchzuführen (es handelt sich also nicht nur um die Speicherung. Also kann ich keinen …
Basierend auf meiner Analyse muss ein vollständiges Dimensionsmodell für unser Data Warehouse aus über 200 Quelltabellen extrahiert werden. Einige dieser Tabellen werden als Teil eines inkrementellen Ladevorgangs extrahiert, andere als Volllast. Zu beachten ist, dass wir ungefähr 225 Quellendatenbanken haben, die alle dasselbe Schema haben. Wie ich gesehen habe, müssen …
Ich habe 200 GB Data Warehouse in SQL Server. Ich habe bei einigen Abfragen sehr langsame Ausführungszeiten festgestellt. Zum Beispiel 12 Stunden für eine einfache deleteAbfrage mit einem inner join. Nachdem ich einige Nachforschungen mit den Ausführungsplänen angestellt habe, habe ich die Statistiken der beiden an der Abfrage beteiligten Tabellen …
Wir beginnen mit dem Entwurf der Bausteine eines Data Mart / Warehouse und müssen in der Lage sein, alle Zeitzonen zu unterstützen (unsere Kunden kommen aus der ganzen Welt). Beim Lesen von Diskussionen online (und in Büchern) scheint eine gängige Lösung darin zu bestehen, eine separate Datums- und Zeitdimension sowie …
In einigen Literaturstellen zur SQL Server-Datenkomprimierung, die ich gelesen habe, heißt es, dass sich die Schreibkosten auf das Vierfache der normalerweise erforderlichen Kosten erhöhen. Es scheint auch zu implizieren, dass dies der Hauptnachteil der Datenkomprimierung ist, was stark impliziert, dass bei einer schreibgeschützten Archivdatenbank die Leistung (mit wenigen Ausnahmen) durch …
Ich bin ziemlich neu in PostgreSQL. Ich habe noch nie eine große Bereitstellung damit durchgeführt. Aber ich habe gute Erfahrungen mit Unternehmenslösungen und möchte versuchen, etwas von dem anzuwenden, was ich mit PostgreSQL gelernt habe. Ich habe eine Site, die so dimensioniert ist, dass sie eine große Anzahl von Daten …
Unter Oracle Exadata (11gR2) haben wir eine relativ umfangreiche Datenbank. cpu_count ist 24 parallel_server_instances ist 2 parallel_threads_per_cpu ist 2 Durch Beobachtung in Oracle Enterprise Manager (OEM) haben wir festgestellt, dass die Leistung aufgrund der seriellen Ausführung von Abfragen schrecklich war. Um dies zu beheben, wurden alle Tabellen, materialisierten Ansichten und …
Wir versuchen, ein Data Warehouse-Design zu optimieren, das die Berichterstellung für Daten für viele Zeitzonen unterstützt. Beispielsweise haben wir möglicherweise einen Bericht über die Aktivität eines Monats (Millionen von Zeilen), in dem die Aktivität nach Tagesstunden gruppiert angezeigt werden muss. Und natürlich muss diese Stunde des Tages die "lokale" Stunde …
Ich arbeite an einer Berechnung auf der Rückseite des Umschlags für ein 100-TB-Berichtsdatenbank-Setup. Ich suche hier die Gedanken der Experten. Vorgeschlagene Umgebung: Speicherkapazität ~ 100 TB Tabellen ~ 200, Größen von 1 GB bis 5 TB. Die mittlere Größe könnte zwischen 100 GB und 200 GB liegen ETL - Jobs …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.