Laut Wikipedia wird die Konvergenzrate als spezifisches Verhältnis der Vektornormen ausgedrückt. Ich versuche, den Unterschied zwischen "linearen" und "quadratischen" Raten zu verschiedenen Zeitpunkten (im Grunde genommen "am Anfang" der Iteration und "am Ende") zu verstehen. Könnte man sagen, dass:
Bei quadratischer Konvergenz ist die Norm des Fehlers des iterativen durch
Eine solche Interpretation würde bedeuten, dass mit ein paar (wenigen) Iterationen des linear konvergenten Algorithmus A1 (zufällige Initialisierung angenommen) ein kleinerer Fehler erreicht würde als mit ein paar Iterationen des quadratisch konvergenten Algorithmus A2. Da sich der Fehler jedoch verringert und aufgrund der Quadrierung, würden spätere Iterationen einen kleineren Fehler bei A2 bedeuten.
Ist die obige Interpretation gültig? Beachten Sie, dass der Geschwindigkeitskoeffizient ignoriert wird .