Das CSP-Optimierungsproblem ist approximationsresistent, wenn es schwer ist, den Approximationsfaktor einer zufälligen Zuordnung zu übertreffen. Zum Beispiel ist MAX 3-LIN approximationsbeständig, da eine zufällige Zuordnung einen Bruchteil der linearen Gleichungen erfüllt, das Erreichen des Approximationsfaktors jedoch hart ist.1 / 2 1 / 2 + ε N P
MAX CUT ist ein grundlegendes vollständig. Es kann als CSP-Problem der Lösung der linearen Gleichungen Modulo 2 ( mod 2) formuliert werden . Eine zufällige Zuordnung erreicht einen -Näherungsfaktor (der Gesamtzahl der Kanten ). Haglin und Venkatesan bewiesen , dass eine Annäherung Faktor zu erreichen ist -hard (dh der Suche nach einem Schnitt besser als ). Hastad zeigte jedoch, dass MAX CUT innerhalb des optimalen Schnitts nicht annähernd 16/17 Faktor ist, es sei denn,x i + x j = 1 1 / 2 | E | 1 / 2 + ε N P | E | / 2 16 / 17 + ε P = N P | E |. Goemans und Williamson gaben einen SDP-basierten Polynomzeitalgorithmus mit einem Approximationsfaktor von 0,878 (innerhalb des optimalen Schnitts) an, der unter der Annahme der Unique Games Conjecture optimal ist. Es scheint mir, dass das Ausdrücken des Approximationsfaktors relativ zur Gesamtzahl der Einschränkungen ( ) natürlicher ist und mit der für das MAX 3-LIN-Problem verwendeten Konvention übereinstimmt.
Warum wird der Approximationsfaktor für MAX CUT relativ zur Größe des optimalen Schnitts anstelle der Anzahl der Einschränkungen (Anzahl der Kanten) angegeben? Bin ich zu Recht zu dem Schluss gekommen, dass MAX CUT approximationsbeständig ist, wenn der Approximationsfaktor relativ zur Gesamtzahl der Einschränkungen ( ) ist?