Verschiedene numerische lineare Algebra- und numerische Optimierungsmethoden haben unterschiedliche Größenbereiche, in denen sie zusätzlich zu ihren eigenen Eigenschaften eine „gute Idee“ sind. Beispielsweise werden für sehr große Optimierungsprobleme Gradienten-, stochastische Gradienten- und Koordinatenabstiegsmethoden anstelle von Newton- oder Interior Point-Methoden verwendet, da Sie sich nicht mit dem Hessischen befassen müssen. In ähnlicher Weise sind dichte lineare Lösungsverfahren nach einer bestimmten Größe nicht mehr durchführbar.
Angesichts der Tatsache, dass sich sowohl die Algorithmen als auch die Computerhardware ständig ändern, was ist ein guter Weg, um zu wissen und mitzuhalten, wie groß zu groß für standardmäßige lineare Algebra und Optimierungslöser ist?
(Ich denke darüber nach, denn wenn Sie ein Endbenutzer von numerischen Algorithmen sind, ist es wichtig, eine vage Vorstellung davon zu haben, wann diese Algorithmen angewendet werden können. Ein Teil davon ist die Problemstruktur und die Art der gewünschten Lösung, aber ein Teil davon ist auch nur die Größe des Problems.)
EDIT: Um mehr Konkretheit zu erreichen, habe ich darüber nachgedacht, dass die Faustregeln an den oberen Grenzen variieren, um festzustellen, wie groß ein Problem sein kann, das Algorithmen für innere Punkte lösen können. Frühere Arbeiten sagten, dass die Dimensionalität bei etwa 1000 liegen sollte, während spätere Arbeiten auf 5000 revidiert wurden und noch neuere Arbeiten noch größere zulassen, je nachdem, ob Sie die Sparsamkeit nutzen können. Das ist ein ziemlich großer Bereich, daher bin ich gespannt, was für hochmoderne Innenpunktmethoden groß ist.