Sofern die Berechnung der Lösung in geschlossener Form nicht extrem teuer ist, ist sie in der Regel der richtige Weg, wenn sie verfügbar ist. Jedoch,
Für die meisten nichtlinearen Regressionsprobleme gibt es keine geschlossene Lösung.
Selbst bei linearer Regression (einer der wenigen Fälle, in denen eine Lösung in geschlossener Form verfügbar ist) kann es unpraktisch sein, die Formel zu verwenden. Das folgende Beispiel zeigt eine Möglichkeit, wie dies geschehen kann.
y=XβX
β^= argmin ∥ Xβ- y∥2
ist gegeben durch
β^= ( XTX)- 1XTy
Stellen Sie sich nun vor, dass eine sehr große, aber spärliche Matrix ist. Beispiel: möglicherweise 100.000 Spalten und 1.000.000 Zeilen, aber nur 0,001% der Einträge in sind ungleich Null. Es gibt spezialisierte Datenstrukturen, um nur die Nicht-Null-Einträge solcher spärlicher Matrizen zu speichern. X XXXX
Stellen Sie sich auch vor, wir hätten Pech und ist eine ziemlich dichte Matrix mit einem viel höheren Anteil von Einträgen ungleich Null. Das Speichern einer Matrix mit einer Dichte von 100.000 mal 100.000 Elementen würde dann Gleitkommazahlen erfordern (bei 8 Bytes pro Zahl sind dies 80 Gigabyte). Das Speichern auf irgendetwas wäre unpraktisch aber ein supercomputer. Darüber hinaus würde die Inverse dieser Matrix (oder häufiger ein Cholesky-Faktor) auch dazu neigen, Einträge zu haben, die meistens nicht Null sind. X T X 1 × 10 10XTXXTX1 × 1010
Es gibt jedoch iterative Methoden zum Lösen des Problems der kleinsten Quadrate, die nicht mehr Speicher als , und erfordern und niemals explizit das Matrixprodukt . y β X T XXyβ^XTX
In dieser Situation ist die Verwendung einer iterativen Methode recheneffizienter als die Verwendung der geschlossenen Lösung für das Problem der kleinsten Fehlerquadrate.
Dieses Beispiel mag absurd groß erscheinen. Probleme mit großen, spärlichen kleinsten Quadraten dieser Größe werden jedoch routinemäßig durch iterative Methoden auf Desktop-Computern in der seismischen Tomographie-Forschung gelöst.