Als «query-performance» getaggte Fragen

Bei Fragen zur Verbesserung der Leistung und / oder Effizienz von Datenbankabfragen.



6
Rollierende Summe des Datumsbereichs mithilfe von Fensterfunktionen
Ich muss eine fortlaufende Summe über einen Datumsbereich berechnen. Zur Veranschaulichung, unter Verwendung der AdventureWorks-Beispieldatenbank , würde die folgende hypothetische Syntax genau das tun, was ich brauche: SELECT TH.ProductID, TH.TransactionDate, TH.ActualCost, RollingSum45 = SUM(TH.ActualCost) OVER ( PARTITION BY TH.ProductID ORDER BY TH.TransactionDate RANGE BETWEEN INTERVAL 45 DAY PRECEDING AND CURRENT …


5
Warum sollte ich die SQL Server-Option "Für Ad-hoc-Workloads optimieren" NICHT verwenden?
Ich wurde von Kimberly Tripp wie diese einige große Artikel über SQL Server Plan Caching lesen: http://www.sqlskills.com/blogs/kimberly/plan-cache-and-optimizing-for-adhoc-workloads/ Warum gibt es überhaupt eine Option zur "Optimierung für Ad-hoc-Workloads"? Sollte das nicht immer an sein? Unabhängig davon, ob die Entwickler Ad-hoc-SQL verwenden oder nicht, warum sollte diese Option nicht für jede Instanz …

6
Warum verschlechtert das Hinzufügen eines TOP 1 die Leistung dramatisch?
Ich habe eine ziemlich einfache Frage SELECT TOP 1 dc.DOCUMENT_ID, dc.COPIES, dc.REQUESTOR, dc.D_ID, cj.FILE_NUMBER FROM DOCUMENT_QUEUE dc JOIN CORRESPONDENCE_JOURNAL cj ON dc.DOCUMENT_ID = cj.DOCUMENT_ID WHERE dc.QUEUE_DATE <= GETDATE() AND dc.PRINT_LOCATION = 2 ORDER BY cj.FILE_NUMBER Das ist eine schreckliche Leistung für mich (als hätte ich nie darauf gewartet, dass es …



2
Konfigurieren von PostgreSQL für die Leseleistung
Unser System schreibt viele Daten (eine Art Big-Data-System). Die Schreibleistung ist gut genug für unsere Anforderungen, aber die Leseleistung ist wirklich zu langsam. Die Primärschlüsselstruktur (Constraint) ist für alle unsere Tabellen ähnlich: timestamp(Timestamp) ; index(smallint) ; key(integer). Eine Tabelle kann Millionen von Zeilen enthalten, sogar Milliarden von Zeilen, und eine …




3
Wie beschleunige ich Abfragen in einer großen Tabelle mit 220 Millionen Zeilen (9 GB Daten)?
Das Thema: Wir haben eine soziale Website, auf der Mitglieder sich gegenseitig auf Kompatibilität oder Übereinstimmung bewerten können. Diese user_match_ratingsTabelle enthält über 220 Millionen Zeilen (9 Gig-Daten oder fast 20 Gig-Indizes). Abfragen für diese Tabelle werden routinemäßig in slow.log angezeigt (Schwellwert> 2 Sekunden) und sind die am häufigsten protokollierte langsame …

5
UPDATE-Leistung, bei der sich keine Daten ändern
Wenn ich eine UPDATEAnweisung habe, die tatsächlich keine Daten ändert (weil sich die Daten bereits im aktualisierten Zustand befinden). Gibt es einen Leistungsvorteil, wenn die WHEREKlausel überprüft wird , um das Update zu verhindern? Zum Beispiel würde sich die Ausführungsgeschwindigkeit zwischen UPDATE 1 und UPDATE 2 wie folgt unterscheiden: CREATE …


Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.