Ich konnte nicht widerstehen, mich Niko mit einer anderen Antwort anzuschließen (willkommen, Niko!). Im Allgemeinen stimme ich Niko zu, dass die Einschränkungen des Batch-Modus in SQL 2012 (wenn Niko keinen Link zu seinem eigenen Blog erstellt, werde ich :)) ein großes Problem darstellen können. Wenn Sie jedoch mit diesen leben können und die volle Kontrolle über jede Abfrage haben, die Sie für die Tabelle schreiben, um sie sorgfältig zu überprüfen, könnte der Spaltenspeicher in SQL 2012 für Sie funktionieren.
In Bezug auf Ihre spezifischen Fragen zur Identitätsspalte stellte ich fest, dass die Identitätsspalte sehr gut komprimiert ist, und würde dringend empfehlen, sie in Ihren Columnstore-Index aufzunehmen, wenn Sie erste Tests durchführen. (Beachten Sie, dass die Identitätsspalte, wenn sie zufällig auch der Clustered-Index Ihres B-Tree ist, automatisch in Ihren nicht-Clustered Columnstore-Index aufgenommen wird .)
Als Referenz sind hier die Größen aufgeführt, die ich für ~ 10 MM Zeilen mit Identitätsspaltendaten beobachtet habe. Der für eine optimale Segmenteliminierung geladene Spaltenspeicher wird auf 26 MB PAGE
komprimiert (gegenüber 113 MB für die Komprimierung der Zeilenspeichertabelle), und selbst der auf einem zufällig angeordneten B-Baum aufgebaute Spaltenspeicher ist nur 40 MB groß. Dies zeigt also einen enormen Komprimierungsvorteil, selbst gegenüber der besten B-Tree-Komprimierung, die SQL zu bieten hat, und selbst wenn Sie sich nicht die Mühe machen, Ihre Daten für eine optimale Segmenteliminierung auszurichten (was Sie tun würden, indem Sie zuerst einen B-Tree erstellen und dann Erstellen Sie Ihren Columnstore mit MAXDOP
1).
Hier ist das vollständige Skript, das ich für den Fall verwendet habe, dass Sie herumspielen möchten:
-- Confirm SQL version
SELECT @@version
--Microsoft SQL Server 2012 - 11.0.5613.0 (X64)
-- May 4 2015 19:05:02
-- Copyright (c) Microsoft Corporation
-- Enterprise Edition: Core-based Licensing (64-bit) on Windows NT 6.3 <X64> (Build 9600: )
-- Create a columnstore table with identity column that is the primary key
-- This will yield 10 columnstore segments @ 1048576 rows each
SELECT i = IDENTITY(int, 1, 1), ROW_NUMBER() OVER (ORDER BY randGuid) as randCol
INTO #testIdentityCompression_sortedColumnstore
FROM (
SELECT TOP 10485760 ROW_NUMBER() OVER (ORDER BY (SELECT NULL)) AS randI, NEWID() AS randGuid
FROM master..spt_values v1
CROSS JOIN master..spt_values v2
CROSS JOIN master..spt_values v3
) r
ORDER BY r.randI
GO
ALTER TABLE #testIdentityCompression_sortedColumnstore
ADD PRIMARY KEY (i)
GO
-- Load using a pre-ordered b-tree and one thread for optimal segment elimination
-- See http://www.nikoport.com/2014/04/16/clustered-columnstore-indexes-part-29-data-loading-for-better-segment-elimination/
CREATE NONCLUSTERED COLUMNSTORE INDEX cs_#testIdentityCompression_sortedColumnstore ON #testIdentityCompression_sortedColumnstore (i) WITH (MAXDOP = 1)
GO
-- Create another table with the same data, but randomly ordered
SELECT *
INTO #testIdentityCompression_randomOrderColumnstore
FROM #testIdentityCompression_sortedColumnstore
GO
ALTER TABLE #testIdentityCompression_randomOrderColumnstore
ADD UNIQUE CLUSTERED (randCol)
GO
CREATE NONCLUSTERED COLUMNSTORE INDEX cs_#testIdentityCompression_randomOrderColumnstore ON #testIdentityCompression_randomOrderColumnstore (i) WITH (MAXDOP = 1)
GO
-- Create a b-tree with the identity column data and no compression
-- Note that we copy over only the identity column since we'll be looking at the total size of the b-tree index
-- If anything, this gives an unfair "advantage" to the rowstore-page-compressed version since more
-- rows fit on a page and page compression rates should be better without the "randCol" column.
SELECT i
INTO #testIdentityCompression_uncompressedRowstore
FROM #testIdentityCompression_sortedColumnstore
GO
ALTER TABLE #testIdentityCompression_uncompressedRowstore
ADD PRIMARY KEY (i)
GO
-- Create a b-tree with the identity column and page compression
SELECT i
INTO #testIdentityCompression_compressedRowstore
FROM #testIdentityCompression_sortedColumnstore
GO
ALTER TABLE #testIdentityCompression_compressedRowstore
ADD PRIMARY KEY (i)
WITH (DATA_COMPRESSION = PAGE)
GO
-- Compare all the sizes!
SELECT OBJECT_NAME(p.object_id, 2) AS tableName, COUNT(*) AS num_segments, SUM(on_disk_size / (1024.*1024.)) as size_mb
FROM tempdb.sys.partitions p
JOIN tempdb.sys.column_store_segments s
ON s.partition_id = p.partition_id
AND s.column_id = 1
WHERE p.object_id IN (OBJECT_ID('tempdb..#testIdentityCompression_sortedColumnstore'),OBJECT_ID('tempdb..#testIdentityCompression_randomOrderColumnstore'))
GROUP BY p.object_id
UNION ALL
SELECT OBJECT_NAME(p.object_id, 2) AS tableName
, NULL AS num_segments
, (a.total_pages*8.0) / (1024.0) as size_mb
FROM tempdb.sys.partitions p
JOIN tempdb.sys.allocation_units a
ON a.container_id = p.partition_id
WHERE p.object_id IN (OBJECT_ID('tempdb..#testIdentityCompression_compressedRowstore'),OBJECT_ID('tempdb..#testIdentityCompression_uncompressedRowstore'))
ORDER BY 3 ASC
GO