Es gibt eine Standard-Approximationstheorie, bei der das Approximationsverhältnis (für Probleme mit Objektiven) ist, - der von einigen Algorithmen und Wert - ein optimaler Wert. Und eine andere Theorie, die der Differentialapproximation, bei der das Approximationsverhältnis , - der schlechteste Wert einer realisierbaren Lösung für die gegebene Instanz. Die Autoren dieser Theorie behaupten, dass sie einige eindeutige Vorteile gegenüber der klassischen hat. Beispielsweise:
- es gibt das gleiche Näherungsverhältnis für solche Probleme wie Minimum Vertex Cover und Maximum Independent Set, von denen bekannt ist, dass sie nur unterschiedliche Realisierungen desselben Problems sind;
- Es gibt dasselbe Verhältnis für die Max- und Min-Versionen desselben Problems. Gleichzeitig wissen wir in der Standardtheorie, dass MIN TSP und MAX TSP sehr unterschiedliche Verhältnisse haben.
- Es misst die Entfernung nicht nur zum Optimum, sondern auch zum Pessimum . Im Fall von Vertex Cover besagt die Standard-Approximationstheorie, dass die beste obere Schranke ist. Wesentlich ist jedoch das maximale Verhältnis zwischen dem Pessimum und dem Optimum. Auf diese Weise wird garantiert, dass ein solcher Algorithmus die Lösung mit dem schlechtesten Wert ausgibt.
Mein Argument lautet: Bei der asymptotischen Analyse berücksichtigen wir keine Konstanten und Terme niedriger Ordnung (hier erinnere ich mich an das Zitat von Avi Widgerson: "Wir sind erfolgreich, weil wir die richtige Abstraktionsebene verwenden.") Abstraktionsgrad für den Vergleich der Ressourcennutzung des Algorithmus. Aber wenn wir die Approximation untersuchen, führen wir aus irgendeinem Grund den Unterschied an den Stellen ein, an denen wir ihn vermeiden können.
Meine Frage ist
warum die Differentialapproximationstheorie so schlecht studiert. Oder sind die Argumente nicht stark genug?