Eine SkipList bietet die gleichen -Grenzen für die Suche wie ein ausgeglichener Baum mit dem Vorteil, dass kein Neuausgleich erforderlich ist. Da die SkipList mit zufälligen Münzwürfen erstellt wird, gelten diese Grenzen nur, solange die Struktur der SkipList ausreichend "ausgeglichen" ist. Insbesondere mit der Wahrscheinlichkeit für eine Konstante kann die ausgeglichene Struktur nach dem Einfügen eines Elements verloren gehen.
Angenommen, ich möchte eine Überspringliste als Speicher-Backend in einer Webanwendung verwenden, die möglicherweise für immer ausgeführt wird. Nach einer polynomiellen Anzahl von Operationen geht die ausgeglichene Struktur der SkipList sehr wahrscheinlich verloren.
Ist meine Argumentation richtig? Haben solche probabilistischen Such- / Speicherdatenstrukturen praktische Anwendungen und wenn ja, wie wird das oben genannte Problem vermieden?
Bearbeiten: Mir ist bekannt, dass es deterministische Varianten der SkipList gibt, deren Implementierung im Vergleich zur (klassischen) randomisierten SkipList viel komplizierter ist.