Ich habe mir diese Lesung des MIT über die Komplexität der Berechnungen angesehen und in Minute 15:00 beginnt Erik Demaine eine Demonstration, um zu zeigen, was im Titel dieser Frage steht. Ich kann seiner Argumentation jedoch nicht folgen. In der Praxis sagt er Folgendes:
Wir können ein Entscheidungsproblem als Zeichenfolge von und die in der Praxis die Wahrheitstabelle der Funktion ist.
Er fährt fort, dass ein Entscheidungsproblem eine unendliche Folge von Bits ist, während ein Programm eine endliche Folge von Bits ist und bis hier kein Problem darstellt. Was ich nicht verstehe, ist die Fortsetzung des Beweises von diesem Punkt an: Entscheidungsprobleme sind in weil Sie einen Dezimalpunkt vor die Zeichenfolge setzen können, die das Problem darstellt, und so den Dezimalteil eines Real erhalten
for example if you have 0111011010101010101... it could become x.0111011010101010101...
Ein Programm ist "nur" eine ganze Zahl in weil es eine endliche Folge von Bits ist. Der Punkt, den ich nicht verstehe, ist, wie es möglich ist, dass ein Entscheidungsproblem mit einer reellen Zahl anstelle einer ganzen Zahl vergleichbar ist ... Ich meine, wenn wir das Argument "einen Punkt vor die Zahl setzen" verwenden könnten, könnte dies nicht Die gleiche Überlegung gilt auch für die Anzahl der möglichen Algorithmen, die jemals erstellt werden können.