Um die NP-Härte eines Problems zu zeigen, muss man ein bekanntes NP-hartes Problem auswählen und eine Polynomreduktion vom bekannten Problem zu seinem vorliegenden Problem finden. Theoretisch kann jedes NP-harte Problem für die Reduktion verwendet werden, aber in der Praxis lassen sich einige der Probleme leichter reduzieren als andere.
Zum Beispiel ist 3-SAT normalerweise eine bessere Wahl für die Erstellung einer Reduktion als SAT, da das erstere eingeschränkter ist als das letztere. 3-Partitionen sind normalerweise eine einfachere Wahl als das Packen von Behältern, ...
Eine Möglichkeit, solche "guten" Probleme für die Reduzierung zu finden, besteht darin, eine statistische Analyse der vorhandenen Reduktionen durchzuführen. Beispielsweise kann man alle from -> to
Reduktionspaare des Buches Computer und Intraktabilität: Ein Leitfaden zur Theorie der NP-Vollständigkeit
(oder anderer Ressourcen) formen und ein Histogramm der Probleme in der from
Menge zeichnen . Dann können wir herausfinden, welche Probleme häufiger für Reduzierungen verwendet werden.
Ich frage mich, ob eine solche statistische Analyse überhaupt Sinn macht. Wurde eine solche Untersuchung bereits durchgeführt oder nicht? Wenn nicht, wie schätzen Sie die am häufigsten verwendeten Probleme bei Reduzierungen ein?
Der Grund, warum ich diese Frage stelle, ist, dass ich bereits einige Beweise für die NP-Härte gemacht habe, aber fast alle von ihnen basieren auf der Reduzierung des gleichen Problems (3-Partition). Ich suche nach anderen Optionen für meine Proofs.