Wenn ich es richtig verstehe, hat ein Algorithmus, der den Wert einer reellen Funktion berechnet, eine Rechenkomplexität wenn Folgendes zutrifft: Wenn wir auf Genauigkeit berechnen , erfordert in der Größenordnung von Schritte.
Was aber, wenn wir einen Algorithmus haben, der zuerst "einen effizienteren Algorithmus zur Berechnung von " und dann berechnet ?
Mit anderen Worten, was ist, wenn wir einen Algorithmus , der Folgendes ausführt:
Finden Sie einen effizienten Algorithmus für die Berechnung von .
benutze um f zu berechnen .
In diesem Fall können wir nicht mehr von der Rechenzeit sprechen, die zum Berechnen von erforderlich wäre , da es völlig davon abhängt, ob Algorithmus bereits Algorithmus . Mit anderen Worten, die Rechenzeit, die zum Berechnen von erforderlich ist, wenn die erste berechnete Zahl ist, ist weitaus größer als die Rechenzeit, die zum Berechnen von erforderlich ist, nachdem f ( 3 ) bereits berechnet wurde.
Meine Frage ist, gibt es ein Konzept / eine Theorie zu dieser Art von Algorithmus, die zuerst einen anderen Algorithmus findet, bevor sie eine Funktion berechnet? Insbesondere frage ich mich über die Analyse der rechnerischen Komplexität solcher Algorithmen.