Ich habe eine sehr häufig aktualisierte Tabelle mit 240 Millionen Zeilen (und wächst). Alle drei Stunden werden 1,5 Millionen Zeilen eingefügt und 1,5 Millionen gelöscht. Als ich den Cluster auf eine SSD verschoben habe, wurde die Zeit für die Masseneinfügung (durch Kopieren) von 22 Minuten auf 2,3 Minuten reduziert. Die Löschzeit wurde ebenfalls verbessert. Ich plane, dieses Bulk-Update alle zwei Stunden oder jede Stunde durchzuführen.
Obwohl die aktuelle Leistung (nach SSD) mit einem häufigeren Update kompatibel ist, habe ich einige Horrorgeschichten über den Tod von SSDs gelesen, die auf begrenzte NAND-Ausdauer in Kombination mit Schreibverstärkung zurückzuführen sind. Da SSDs teuer sind, möchte ich ihren Tod so weit wie möglich in die Zukunft drängen. Daher meine Frage: Was passiert wirklich mit der Plattendatei bei einem Löschvorgang und anschließendem Vakuum? Ich schätze, es gibt zwei Schreibvorgänge, einer zum Markieren der Zeile als gelöscht und der andere beim Staubsaugen zum Markieren als überschreibbar. Wenn ich, anstatt zu löschen und zu staubsaugen, die Tabelle partitioniere, indem ich bei jedem Masseneinfügungs- / löschvorgang Tabellen erstelle und lösche, würde ich den SSD-Verschleiß minimieren?