Angenommen, wir arbeiten mit einer Infinite-Tape-Turing-Maschine.
Wenn ich jemandem den Begriff der Zeitkomplexität erläutere und erkläre, warum er im Verhältnis zur Eingabegröße einer Instanz gemessen wird, bin ich auf die folgende Behauptung gestoßen:
[..] Zum Beispiel ist es normal, dass Sie mehr Schritte benötigen, um zwei Ganzzahlen mit 100000 Bits zu multiplizieren, als zum Beispiel zwei Ganzzahlen mit 3 Bits zu multiplizieren.
Die Behauptung ist überzeugend, aber irgendwie von Hand zu winken. Bei allen Algorithmen, auf die ich gestoßen bin, sind je größer die Eingabegröße, desto mehr Schritte erforderlich. Genauer gesagt ist die Zeitkomplexität eine monoton ansteigende Funktion der Eingangsgröße.
Ist es so, dass die Zeitkomplexität in der Eingabegröße immer eine zunehmende Funktion ist? Wenn ja, warum ist das so? Gibt es dafür einen Beweis , der über das Winken von Hand hinausgeht?