In einigen Literaturstellen zur SQL Server-Datenkomprimierung, die ich gelesen habe, heißt es, dass sich die Schreibkosten auf das Vierfache der normalerweise erforderlichen Kosten erhöhen. Es scheint auch zu implizieren, dass dies der Hauptnachteil der Datenkomprimierung ist, was stark impliziert, dass bei einer schreibgeschützten Archivdatenbank die Leistung (mit wenigen Ausnahmen) durch die Verwendung der Datenkomprimierung von 100% gefüllten Seiten verbessert wird.
- Sind die obigen Aussagen wahr?
Was sind die primären "Variationen" zwischen Datenkomprimierung und anderen (zum Lesen)
- "CPU + x%"?
- "IO -y%"?
- Seitenteilung?
- Tempdb-Nutzung?
- RAM-Auslastung?
- Und zum Schreiben?
Für die Zwecke dieser Frage können Sie den Kontext auf die Komprimierung einer großen Datenbank (> 1 TB) auf PAGE-Ebene beschränken. Zusätzliche Kommentare sind jedoch immer willkommen.
Verweise:
SQL Server Storage Engine-Blog (Das DW-Szenario zeigt, dass die Komprimierung sehr vorteilhaft ist.)
Datenkomprimierung: Strategie, Kapazitätsplanung und Best Practices
Ein detaillierterer Ansatz zur Entscheidung, was komprimiert werden soll, umfasst die Analyse der Workload-Eigenschaften für jede Tabelle und jeden Index. Es basiert auf den folgenden zwei Metriken:
U: Der Prozentsatz der Aktualisierungsvorgänge für eine bestimmte Tabelle, einen bestimmten Index oder eine bestimmte Partition im Verhältnis zu den Gesamtvorgängen für dieses Objekt. Je niedriger der Wert von U ist (dh die Tabelle, der Index oder die Partition werden selten aktualisiert), desto besser ist der Kandidat für die Seitenkomprimierung.
S: Der Prozentsatz der Scanvorgänge für eine Tabelle, einen Index oder eine Partition im Verhältnis zu den Gesamtvorgängen für dieses Objekt. Je höher der Wert von S (dh die Tabelle, der Index oder die Partition werden meistens gescannt), desto besser ist der Kandidat für die Seitenkomprimierung.
Beide oben genannten Punkte sind nachweislich darauf ausgerichtet, die Seitenkomprimierung für DW-Datenbanken zu empfehlen (leseintensive / exklusive Big-Data-Operationen).