In Nocedal & Wrights Buch über numerische Optimierung gibt es in Abschnitt 2.2 (Seite 27) eine Aussage: "Im Allgemeinen ist es einfacher, die Skaleninvarianz für Liniensuchalgorithmen als für Vertrauensbereichsalgorithmen beizubehalten." Im selben Abschnitt wird über neue Variablen gesprochen, bei denen es sich um skalierte Versionen der ursprünglichen Variablen handelt, die …
Ich versuche zu verstehen, wie die adjungierte Optimierungsmethode für eine PDE-beschränkte Optimierung funktioniert. Insbesondere versuche ich zu verstehen, warum die adjungierte Methode bei Problemen effizienter ist, bei denen die Anzahl der Entwurfsvariablen groß ist, die "Anzahl der Gleichungen jedoch klein". Was ich verstehe: Betrachten Sie das folgende Optimierungsproblem mit eingeschränkter …
Bei einer unbekannten Funktion können wir ihren Wert an jedem Punkt in ihrer Domäne bewerten, aber wir haben keinen Ausdruck. Mit anderen Worten, f ist für uns wie eine Black Box.f:Rd→Rf:Rd→Rf:\mathbb R^d \to \mathbb Rfff Wie heißt das Problem, den Minimierer von ? Welche Methoden gibt es da draußen?fff Wie …
Ich löse für eine riesige, spärlich positive, definitive Matrix Verwendung der Methode des konjugierten Gradienten (CG). Es ist möglich, die Determinante von Verwendung der während der Lösung erzeugten Informationen zu berechnen .A A.A x = bAx=bAx=bEINAAEINAA
Angesichts des Systems in dem A ∈ R n × n ist , habe ich gelesen, dass bei Verwendung der Jacobi-Iteration als Löser die Methode nicht konvergiert, wenn b eine Nicht-Null-Komponente im Nullraum von A hat . Wie könnte man also formal sagen, dass die Jacobi-Methode nicht konvergent ist , …
Gibt es eine schnellere Möglichkeit, Standardfehler für lineare Regressionsprobleme zu berechnen, als durch Invertieren von ? Hier gehe ich davon aus, dass wir eine Regression haben:X′XX′XX'X y=Xβ+ε,y=Xβ+ε,y=X\beta+\varepsilon, wobei eine n × k- Matrix und y ein n × 1- Vektor ist.XXXn×kn×kn\times kyyyn×1n×1n\times 1 Um eine Problemlösung für die kleinsten Quadrate …
Für ein Projekt muss ich diese beiden Methoden implementieren und vergleichen, wie sie für verschiedene Funktionen funktionieren. Es sieht so aus, als ob die konjugierte Gradientenmethode dazu gedacht ist, lineare Gleichungssysteme des for zu lösen Ax=bAx=b A\mathbf{x} = \mathbf{b} Wobei eine n-mal-n-Matrix ist, die symmetrisch, positiv-definitiv und real ist.AAA Auf …
Ich habe einen Datensatz, der sich langsam ändert, und ich muss die Eigenvektoren / Eigenwerte seiner Kovarianzmatrix verfolgen. Ich habe es benutzt scipy.linalg.eigh, aber es ist zu teuer und es nutzt nicht die Tatsache, dass ich bereits eine Zerlegung habe, die nur geringfügig falsch ist. Kann jemand einen besseren Ansatz …
Ich stoße oft auf das allgemeine Sprichwort, dass es schwierig ist, Innenpunktmethoden warm zu starten. Gibt es eine intuitive Erklärung für diesen Rat? Gibt es Situationen, in denen man von einem Warmstart in einer Innenpunktmethode profitieren kann? Kann mir jemand hilfreiche Referenzen zum Thema empfehlen?
Ich habe ein Optimierungsproblem, das wie folgt aussieht minJ,Bs.t.∑ij|Jij|MJ+BY=XminJ,B∑ij|Jij|s.t.MJ+BY=X \begin{array}{rl} \min_{J,B} & \sum_{ij} |J_{ij}|\\ \textrm{s.t.} & MJ + BY =X \end{array} Hier sind meine Variablen die Matrizen JJJ und BBB , aber das gesamte Problem ist immer noch ein lineares Programm; Die restlichen Variablen sind fest. Wenn ich versuche, dieses …
Ich bin daran interessiert, eine Funktion maximieren , wobei θ ∈ R p ist .f( θ )f(θ)f(\mathbf \theta)θ∈Rpθ∈Rp\theta \in \mathbb R^p Das Problem ist, dass ich die analytische Form der Funktion oder ihrer Ableitungen nicht kenne. Das einzige , was ich tun kann , ist die Funktion punktweise zu bewerten, …
Zur Optimierung aus Wikipedia : In der Informatik bezeichnet Metaheuristik eine Berechnungsmethode, die ein Problem optimiert , indem iterativ versucht wird, eine Kandidatenlösung in Bezug auf ein bestimmtes Qualitätsmaß zu verbessern. Metaheuristiken machen nur wenige oder keine Annahmen über das zu optimierende Problem und können sehr große Räume von Kandidatenlösungen …
Ich versuche, eine vollständige SVM- Implementierung in Python zu schreiben, und habe einige Probleme bei der Berechnung der Lagrange-Koeffizienten. Lassen Sie mich zunächst umformulieren, was ich aus dem Algorithmus verstehe, um sicherzustellen, dass ich auf dem richtigen Weg bin. Wenn ein Datensatz ist und die Klassenbezeichnung von , dann istx1,x2,...,xnx1,x2,...,xnx_1, …
Was sind empfohlene Methoden, um nichtlineare kleinste Quadrate, min , mit Box-Einschränkungen ? Es scheint mir (Dummköpfe eilen ), dass man die Box-Einschränkungen quadratisch machen und wobei ist die "Wannenfunktion" in Form von \ _ _ _ /, . Funktioniert das theoretisch, in der Praxis? (Es scheint viele theoretische Arbeiten …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.