Bei einer Datenstrukturspezifikation wie einer rein funktionalen Karte mit bekannten Komplexitätsgrenzen muss zwischen mehreren Implementierungen gewählt werden. Es gibt einige Folklore, wie man die richtige auswählt, zum Beispiel werden Rot-Schwarz-Bäume im Allgemeinen als schneller angesehen, aber AVL-Bäume haben eine bessere Leistung bei Arbeitslasten mit vielen Suchvorgängen.
Gibt es eine systematische Darstellung (veröffentlichtes Papier) dieses Wissens (in Bezug auf Sets / Karten)? Idealerweise würde ich mir wünschen, dass statistische Analysen mit der tatsächlichen Software durchgeführt werden. Es könnte beispielsweise zu dem Schluss kommen, dass es N typische Arten der Kartennutzung gibt, und die Eingangswahrscheinlichkeitsverteilung für jede auflisten.
Gibt es systematische Benchmarks, die die Leistung testen und die Leistung für verschiedene Verteilungen von Eingaben festlegen?
Gibt es Implementierungen, die adaptive Algorithmen verwenden, um die Darstellung abhängig von der tatsächlichen Verwendung zu ändern?