Wir alle kennen also die untere Grenze des Vergleichsbaums von Über die ungünstigste Anzahl von Vergleichen, die mit einem (deterministischen) Vergleichs-Sortieralgorithmus durchgeführt wurden. Dies gilt nicht für die randomisierte Vergleichssortierung (wenn wir die erwarteten Vergleiche für die Worst-Case-Eingabe messen). Zum Beispiel ist für n = 4 die deterministische Untergrenze fünf Vergleiche, aber ein randomisierter Algorithmus (der die Eingabe zufällig permutiert und dann die Zusammenführungssortierung anwendet) mit 4 2 ist besser erwartete Vergleiche für alle Eingaben.
Das ohne die Obergrenzen gebunden gilt nach wie vor im randomisierten Fall durch ein informationstheoretisches Argument, und es kann leicht auf k + 2 ( n ! - 2 k ) verschärft werden Dies folgt, weil es einen optimalen Algorithmus gibt, der die Eingabe zufällig permutiert und dann einen (deterministischen) Entscheidungsbaum anwendet, und der beste Entscheidungsbaum (falls vorhanden) ist einer, in dem sich alle Blätter in zwei aufeinanderfolgenden Ebenen befinden.
Was ist, wenn etwas über die Obergrenzen für dieses Problem bekannt ist? Für alle ist die zufällige Anzahl von Vergleichen (in Erwartung der Eingabe im ungünstigsten Fall für den bestmöglichen Algorithmus) immer strikt besser als der beste deterministische Algorithmus (im Wesentlichen, weil n ! Niemals eine Zweierpotenz ist) . Aber wie viel besser?