Als «optimization» getaggte Fragen

Dieses Tag ist für Fragen zu Methoden zur (eingeschränkten oder nicht eingeschränkten) Minimierung oder Maximierung von Funktionen gedacht.

1
Skalierungsinvarianz für Algorithmen für die Zeilensuche und den Vertrauensbereich
In Nocedal & Wrights Buch über numerische Optimierung gibt es in Abschnitt 2.2 (Seite 27) eine Aussage: "Im Allgemeinen ist es einfacher, die Skaleninvarianz für Liniensuchalgorithmen als für Vertrauensbereichsalgorithmen beizubehalten." Im selben Abschnitt wird über neue Variablen gesprochen, bei denen es sich um skalierte Versionen der ursprünglichen Variablen handelt, die …

2
Verständnis der Kosten der adjungierten Methode für die pde-beschränkte Optimierung
Ich versuche zu verstehen, wie die adjungierte Optimierungsmethode für eine PDE-beschränkte Optimierung funktioniert. Insbesondere versuche ich zu verstehen, warum die adjungierte Methode bei Problemen effizienter ist, bei denen die Anzahl der Entwurfsvariablen groß ist, die "Anzahl der Gleichungen jedoch klein". Was ich verstehe: Betrachten Sie das folgende Optimierungsproblem mit eingeschränkter …
11 optimization  pde 

3
Eine unbekannte Funktion optimieren, die nur ausgewertet werden kann?
Bei einer unbekannten Funktion können wir ihren Wert an jedem Punkt in ihrer Domäne bewerten, aber wir haben keinen Ausdruck. Mit anderen Worten, f ist für uns wie eine Black Box.f:Rd→Rf:Rd→Rf:\mathbb R^d \to \mathbb Rfff Wie heißt das Problem, den Minimierer von ? Welche Methoden gibt es da draußen?fff Wie …



1
Berechnung von Standardfehlern für lineare Regressionsprobleme ohne Berechnung der Inversen
Gibt es eine schnellere Möglichkeit, Standardfehler für lineare Regressionsprobleme zu berechnen, als durch Invertieren von ? Hier gehe ich davon aus, dass wir eine Regression haben:X′XX′XX'X y=Xβ+ε,y=Xβ+ε,y=X\beta+\varepsilon, wobei eine n × k- Matrix und y ein n × 1- Vektor ist.XXXn×kn×kn\times kyyyn×1n×1n\times 1 Um eine Problemlösung für die kleinsten Quadrate …

2
Gradientenabstieg und konjugierter Gradientenabstieg
Für ein Projekt muss ich diese beiden Methoden implementieren und vergleichen, wie sie für verschiedene Funktionen funktionieren. Es sieht so aus, als ob die konjugierte Gradientenmethode dazu gedacht ist, lineare Gleichungssysteme des for zu lösen Ax=bAx=b A\mathbf{x} = \mathbf{b} Wobei eine n-mal-n-Matrix ist, die symmetrisch, positiv-definitiv und real ist.AAA Auf …

2
Eigenvektoren einer kleinen Normanpassung
Ich habe einen Datensatz, der sich langsam ändert, und ich muss die Eigenvektoren / Eigenwerte seiner Kovarianzmatrix verfolgen. Ich habe es benutzt scipy.linalg.eigh, aber es ist zu teuer und es nutzt nicht die Tatsache, dass ich bereits eine Zerlegung habe, die nur geringfügig falsch ist. Kann jemand einen besseren Ansatz …


4
Lineare Programmierung mit Matrixeinschränkungen
Ich habe ein Optimierungsproblem, das wie folgt aussieht minJ,Bs.t.∑ij|Jij|MJ+BY=XminJ,B∑ij|Jij|s.t.MJ+BY=X \begin{array}{rl} \min_{J,B} & \sum_{ij} |J_{ij}|\\ \textrm{s.t.} & MJ + BY =X \end{array} Hier sind meine Variablen die Matrizen JJJ und BBB , aber das gesamte Problem ist immer noch ein lineares Programm; Die restlichen Variablen sind fest. Wenn ich versuche, dieses …


3
Maximierung unbekannter Rauschfunktionen
Ich bin daran interessiert, eine Funktion maximieren , wobei θ ∈ R p ist .f( θ )f(θ)f(\mathbf \theta)θ∈Rpθ∈Rp\theta \in \mathbb R^p Das Problem ist, dass ich die analytische Form der Funktion oder ihrer Ableitungen nicht kenne. Das einzige , was ich tun kann , ist die Funktion punktweise zu bewerten, …

2
Bedeutung von (meta) heuristischen Methoden
Zur Optimierung aus Wikipedia : In der Informatik bezeichnet Metaheuristik eine Berechnungsmethode, die ein Problem optimiert , indem iterativ versucht wird, eine Kandidatenlösung in Bezug auf ein bestimmtes Qualitätsmaß zu verbessern. Metaheuristiken machen nur wenige oder keine Annahmen über das zu optimierende Problem und können sehr große Räume von Kandidatenlösungen …

2
Berechnung der Lagrange-Koeffizienten für SVM in Python
Ich versuche, eine vollständige SVM- Implementierung in Python zu schreiben, und habe einige Probleme bei der Berechnung der Lagrange-Koeffizienten. Lassen Sie mich zunächst umformulieren, was ich aus dem Algorithmus verstehe, um sicherzustellen, dass ich auf dem richtigen Weg bin. Wenn ein Datensatz ist und die Klassenbezeichnung von , dann istx1,x2,...,xnx1,x2,...,xnx_1, …

4
Nichtlineare kleinste Quadrate mit Box-Einschränkungen
Was sind empfohlene Methoden, um nichtlineare kleinste Quadrate, min , mit Box-Einschränkungen ? Es scheint mir (Dummköpfe eilen ), dass man die Box-Einschränkungen quadratisch machen und wobei ist die "Wannenfunktion" in Form von \ _ _ _ /, . Funktioniert das theoretisch, in der Praxis? (Es scheint viele theoretische Arbeiten …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.