Es gibt bereits mehrere Antworten, die erklären, warum symmetrische positiv definierte Matrizen so wichtig sind. Deshalb werde ich eine Antwort geben, die erklärt, warum sie nicht so wichtig sind, wie manche Leute, einschließlich der Autoren einiger dieser Antworten, denken. Der Einfachheit halber beschränke ich mich auf symmetrische Matrizen und konzentriere mich auf Hessisch und Optimierung.
Wenn Gott die Welt konvex gemacht hätte, gäbe es keine konvexe Optimierung, sondern nur eine Optimierung. Ebenso gäbe es keine (symmetrischen) positiven bestimmten Matrizen, sondern nur (symmetrische) Matrizen. Aber das ist nicht der Fall, also kümmere dich darum.
Wenn ein quadratisches Programmierproblem konvex ist, kann es "leicht" gelöst werden. Wenn es nicht konvex ist, kann ein globales Optimum immer noch unter Verwendung von Verzweigungs- und gebundenen Methoden gefunden werden (aber es kann länger und mehr Speicher dauern).
Wenn eine Newton-Methode für die Optimierung verwendet wird und der Hessische Wert bei einigen Iterationen unbestimmt ist, ist es nicht erforderlich, ihn auf eine positive Bestimmtheit zu "finageln". Wenn eine Zeilensuche verwendet wird, können Richtungen negativer Krümmung gefunden und die Zeilensuche entlang dieser ausgeführt werden, und wenn ein Vertrauensbereich verwendet wird, gibt es einen ausreichend kleinen Vertrauensbereich, so dass die Lösung des Vertrauensbereichsproblems einen Abstieg erreicht.
Wie bei Quasi-Newton-Methoden behalten BFGS (gedämpft, wenn das Problem eingeschränkt ist) und DFP die positive Bestimmtheit der hessischen oder inversen hessischen Approximation bei. Andere Quasi-Newton-Methoden wie SR1 (Symmetric Rank One) weisen nicht unbedingt eine positive Bestimmtheit auf. Bevor Sie diesbezüglich außer Form geraten, ist dies ein guter Grund, sich für SR1 für viele Probleme zu entscheiden - wenn das Hessische auf dem Weg zum Optimum wirklich nicht positiv bestimmt ist, muss die Quasi-Newton-Näherung positiv bestimmt sein kann zu einer miesen quadratischen Annäherung an die Zielfunktion führen. Im Gegensatz dazu ist die SR1-Aktualisierungsmethode "locker wie eine Gans" und kann ihre Bestimmtheit im weiteren Verlauf verändern.
Bei nichtlinear eingeschränkten Optimierungsproblemen kommt es nicht auf das Hessische der Zielfunktion an, sondern auf das Hessische des Lagrange. Das Hessische des Lagrangischen mag auch im Optimum unbestimmt sein, und tatsächlich ist es nur die Projektion des Hessischen des Lagrangischen in den Nullraum des Jacobischen der aktiven (linearen und nichtlinearen) Bedingungen, die positiv sein müssen -definit am Optimum. Wenn Sie das Hessische des Lagrangischen über BFGS modellieren und es dadurch auf einen positiven Bestimmungswert beschränken, ist es möglicherweise überall schrecklich und funktioniert nicht gut. Im Gegensatz dazu kann SR1 seine Eigenwerte an das anpassen, was es tatsächlich "sieht".
Zu all dem kann ich noch viel mehr sagen, aber das ist genug, um Ihnen einen Vorgeschmack zu geben.
Edit : Was ich 2 Absätze geschrieben habe, ist richtig. Ich habe jedoch vergessen darauf hinzuweisen, dass dies auch für linear beschränkte Probleme gilt. Bei linear beschränkten Problemen ist das Hessische des Lagrangischen genau das Hessische der objektiven Funktion. Die Optimalitätsbedingung 2. Ordnung für ein lokales Minimum ist also, dass die Projektion des Hessischen der objektiven Funktion in den Nullraum des Jacobischen der aktiven Nebenbedingungen positiv semidefinit ist. Insbesondere muss das Hessische der Zielfunktion nicht (notwendigerweise) das Optimum sein und ist es auch bei linear beschränkten Problemen oft nicht.