Ich habe das folgende lineare Programm: wobei x \ in \ mathbb {R} ^ n , \ mathbf {1} ^ T x die Summe der Einträge von x bezeichnet und a bekannt ist und hat deutlich streng positive Einträge.MaximizeSubject toaTxxmin≤x≤xmax1Tx=1MaximizeaTxSubject toxmin≤x≤xmax1Tx=1 \begin{array}{cc} \text{Maximize} & a^T x \\ \text{Subject to} & …
Ich versuche, neuronale Netze in Python erneut zu implementieren. Ich habe die Kostenfunktion und den Backpropagation-Algorithmus korrekt implementiert. Ich habe sie überprüft, indem ich den entsprechenden Octave-Code ausgeführt habe. Wenn ich jedoch versuche, die scipy.optimize.fmin_cgFunktion zu verwenden, dauert die Ausführung der Iterationen sehr lange. Es wird mit einer Warnung beendet …
Ich habe zwei Variablen kund tals Funktionen von zwei anderen Variablen p1und p2. Ich kenne auch ihre Maximalwerte. Ich habe keinen analytischen Ausdruck dafür. Ich möchte die Werte von kund tfinden, die ihren Maximalwerten am nächsten kommen. Gibt es eine Möglichkeit, das k = f1(p1, p2)und zu optimieren t = …
Gibt es eine Open-Source-Implementierung von konvexen Optimierungslösern in C / C ++? Einige Bibliotheken wie NLopt , Ipopt , OPT ++ erfüllen meine Anforderungen nicht. OPT ++ und Ipopt sind nicht threadsicher, und NLopt scheint keine spezifische / effiziente Möglichkeit zu haben, konvexe Programmierprobleme mit Gleichheits- / Ungleichheitsbeschränkungen zu lösen.
Ich stehe vor dem Problem, das Ellipsoid ( ist eine symmetrische positive definitive Matrix) mit maximalem Volumen innerhalb einer konvexen Menge die als eine Menge linearer Ungleichungen . Ich habe verstanden, wie es als konvexes Optimierungsproblem formalisiert wird wie in "Convex Optimization, Stephen Boyd und Lieven Vandenberghe, Cambridge University Press, …
Verschiedene numerische lineare Algebra- und numerische Optimierungsmethoden haben unterschiedliche Größenbereiche, in denen sie zusätzlich zu ihren eigenen Eigenschaften eine „gute Idee“ sind. Beispielsweise werden für sehr große Optimierungsprobleme Gradienten-, stochastische Gradienten- und Koordinatenabstiegsmethoden anstelle von Newton- oder Interior Point-Methoden verwendet, da Sie sich nicht mit dem Hessischen befassen müssen. In …
Was wären gute Methoden (und / oder Softwarepakete), um ein Problem zu lösen, das eine quadratische Funktion minimiert? , st 0 ≤ x i ≤ 1 und Es gibt mehr Einschränkungen, von denen einige nicht linear (und nicht differenzierbar) sind, z. B. ∑ i x i 1 x i > …
Ich erhalte die Warnung im Betreff des Beitrags, wenn ich versuche, eine Funktion in Python mit der Funktion scipy.optimize.fmin_bfgs zu optimieren . Die komplette Ausgabe: Warnung: Gewünschter Fehler wird aufgrund von Präzisionsverlust nicht unbedingt erreicht Current function value: nan Iterations: 1 Function evaluations: 18 Gradient evaluations: 3 Es ist kein …
Ich versuche, ein einseitiges nichtlineares Problem der kleinsten Quadrate mit linearen Einschränkungen zu lösen, dh das Problem: minx∑mi=1ri(x) s.t Ax≤bminx∑i=1mri(x) s.t Ax≤b\min_{\mathbf{x}} \quad \sum^m_{i=1} \mathbf{r}_i(\mathbf{x}) \qquad \text{ s.t } \quad A\mathbf{x} \leq \mathbf{b} wo ri(x)=fi(x)2ri(x)=fi(x)2r_i(\mathbf{x})=f_i(\mathbf{x})^2 wenn fi(x)>0fi(x)>0f_i(\mathbf{x})>0 und ri(x)=0ri(x)=0r_i(\mathbf{x})=0 sonst. Mit anderen Worten, dies kann als Problem der kleinsten Quadrate …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.