Manchmal, während ich den Code optimiere, ist es erforderlich, bestimmte Teile des Codes zeitlich zu bestimmen. Ich verwende das Folgende seit Jahren, habe mich aber gefragt, ob es einen einfacheren / besseren Weg gibt, dies zu tun? call system_clock(count_rate=clock_rate) !Find the time rate call system_clock(count=clock_start) !Start Timer call do_something_subroutine !This …
Ich habe einen Datensatz x1,x2,…,xkx1,x2,…,xkx_{1}, x_{2}, \ldots, x_{k} und möchte den Parameter mmm so finden, dass er die Summe minimiert m - x i | . ∑i=1k∣∣m−xi∣∣.∑i=1k|m−xi|.\sum_{i=1}^{k}\big|m-x_i\big|. das ist minm∑i=1k∣∣m−xi∣∣.minm∑i=1k|m−xi|.\min_{m}\sum_{i=1}^{k}\big|m-x_i\big|.
Der Remez-Algorithmus ist eine bekannte iterative Routine zur Approximation einer Funktion durch ein Polynom in der Minimax-Norm. Aber, wie Nick Trefethen [1] dazu sagt: Die meisten dieser [Implementierungen] reichen viele Jahre zurück und in der Tat lösen die meisten von ihnen nicht das allgemeine Problem der besten Näherung, wie oben …
Ich habe ein gemischtes Integer-Programmierproblem. Und ich verwende derzeit GLPK als meinen Löser. Aber ich fand, dass GLPK für das lineare Programmierproblem gut ist, aber für die gemischte Ganzzahl-Programmierung benötigt es viel mehr Zeit und entspricht daher nicht unseren Anforderungen. Ich suche so andere Software. Gibt es noch andere gute …
Ich habe einige Referenzen gelesen, einschließlich dieser . Ich bin irgendwie verwirrt, welches Optimierungsproblem die komprimierte Abtastung aufbaut und zu lösen versucht. Ist es minimizesubject to∥x∥1Ax=bminimize‖x‖1subject toAx=b\begin{array}{ll} \text{minimize} & \|x\|_1\\ \text{subject to} & Ax=b\end{array} oder und minimizesubject to∥x∥0Ax=bminimize‖x‖0subject toAx=b\begin{array}{ll} \text{minimize} & \|x\|_0\\ \text{subject to} & Ax=b\end{array} oder / und noch …
Ich habe diese Verwirrung über die Armijo-Regel, die bei der Zeilensuche verwendet wird. Ich habe die Suche nach Verfolgungslinien zurückgelesen, aber nicht verstanden, worum es bei dieser Armijo-Regel geht. Kann jemand erläutern, was die Armijo-Regel ist? Die Wikipedia scheint nicht gut zu erklären. Vielen Dank
In den inkompressiblen Navier-Stokes-Gleichungen Der Druckbegriff wird oft als Lagrange-Multiplikator bezeichnet, der die Inkompressibilitätsbedingung.ρ ( ut+ ( u ⋅ ∇ ) u )Weiterempfehlen ∇ ⋅ u= - ∇ p + & mgr; & Dgr; u + f= 0ρ(ut+(u⋅∇)u)=-∇p+μΔu+f∇⋅u=0\begin{align*} \rho\left(\mathbf{u}_t + (\mathbf{u} \cdot \nabla)\mathbf{u}\right) &= - \nabla p + \mu\Delta\mathbf{u} + …
Ich versuche das folgende Gleichungssystem für die Variablen und zu lösen (alle anderen sind Konstanten):x 2P, x1P,x1P,x_1x2x2x_2 A ( 1 - P)2- k1x1= 0A P2- k2x2= 0( 1 - P) ( r1+ x1)4L1- P( r1+ x2)4L2= 0EIN(1-P)2-k1x1=0EINP2-k2x2=0(1-P)(r1+x1)4L1-P(r1+x2)4L2=0\frac{A(1-P)}{2}-k_1x_1=0 \\ \frac{AP}{2}-k_2x_2=0 \\ \frac{(1-P)(r_1+x_1)^4}{L_1}-\frac{P(r_1+x_2)^4}{L_2}=0 Ich kann sehen, dass ich dieses Gleichungssystem in eine …
Nach Nocedal & Wrights Buch Numerical Optimization (2006) sind die Wolfe-Bedingungen für eine ungenaue Liniensuche für eine Abstiegsrichtung ppp : Ausreichende Abnahme: Curvature Zustand: ∇ f ( x + α p ) T p ≥ c 2 ∇ f ( x ) T p für 0 < c 1 < …
Ich muss lösen s . t .Mindestx∥ A x - b ∥22,∑ichxich= 1 ,xich≥ 0 ,∀ ich .Mindestx‖EINx-b‖22,s.t.∑ichxich=1,xich≥0,∀ich.\begin{alignat}{1} & \min_{x}\|Ax - b\|^2_{2}, \\ \mathrm{s.t.} & \quad\sum_{i}x_{i} = 1, \\ & \quad x_{i} \geq 0, \quad \forall{i}. \end{alignat} Ich denke, es ist ein quadratisches Problem, mit dem es lösbar sein sollte …
Ich habe mich gefragt, ob jemand Vorschläge für Texte oder Übersichtsartikel zu Zerlegungsmethoden (z. B. Primäre, Duale, Dantzig-Wolfe-Zerlegungen) zur Lösung großer mathematischer Programmierprobleme hat. Ich mochte Stephen Boyds "Notes on Decomposition Methods" , und es wäre großartig, zum Beispiel ein Lehrbuch zu finden, das dieses Thema ausführlicher behandelt.
Ich bat um Klärung über eine kürzlich gestellte Frage zu minpack und erhielt folgenden Kommentar: Jedes Gleichungssystem entspricht einem Optimierungsproblem, weshalb Newton-basierte Methoden in der Optimierung Newton-basierten Methoden zum Lösen nichtlinearer Gleichungssysteme sehr ähnlich sehen. Was mich an diesem Kommentar (und den damit verbundenen negativen Meinungen zu spezialisierten nichtlinearen Lösen …
Viele wichtige Probleme können als gemischtes ganzzahliges lineares Programm ausgedrückt werden . Leider ist die Berechnung der optimalen Lösung für diese Klasse von Problemen NP-Complete. Glücklicherweise gibt es Approximationsalgorithmen, die manchmal qualitativ hochwertige Lösungen mit nur mäßigem Rechenaufwand liefern können. Wie soll ich ein bestimmtes gemischtes ganzzahliges lineares Programm analysieren, …
Ich bin daran interessiert, eine Funktion vieler ( ) realer Parameter (ein Ergebnis einer komplexen Simulation) global zu maximieren . Die Bewertung der betreffenden Funktion ist jedoch relativ teuer und erfordert für jeden Parametersatz etwa 2 Tage. Ich vergleiche verschiedene Optionen und habe mich gefragt, ob jemand Vorschläge hat.≈30≈30\approx 30 …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.