Die Worst-Case- und Average-Case-Analyse sind bekannte Maßstäbe für die Komplexität eines Algorithmus. Die kürzlich geglättete Analyse hat sich als weiteres Paradigma herausgestellt, um zu erklären, warum einige im schlimmsten Fall exponentielle Algorithmen in der Praxis so gut funktionieren, beispielsweise der Simplex-Algorithmus.
Meine Frage ist - gibt es andere Paradigmen, um die Komplexität eines Algorithmus zu messen? Mich interessieren vor allem diejenigen, die zu erklären versuchen, warum einige Algorithmen, die im schlimmsten Fall eine schlechte Komplexität aufweisen, in der Praxis gut funktionieren.