Fragen zu den algorithmischen / rechnerischen Aspekten der linearen Algebra, einschließlich der Lösung linearer Systeme, Probleme der kleinsten Quadrate, Eigenprobleme und anderer solcher Fragen.
Derzeit arbeite ich mit "A Multigrid Tutorial" von Briggs et al., Kapitel 8. Der Aufbau des Interpolationsoperators ist gegeben als: Der Aufbau des Beschränkungsbetreibers und des Feinnetzbetreibers ist dann gegeben als: Nehmen wir an, wir haben drei Gitterpunkte x0, x1, x2, wobei der mittlere x1 in Ordnung und die anderen …
Ich versuche herauszufinden, ob es einen schnelleren Weg gibt, alle Eigenwerte und Eigenvektoren einer sehr großen und spärlichen Adjazenzmatrix zu berechnen, als mit scipy.sparse.linalg.eigsh Soweit ich weiß, verwendet diese Methode nur die Spärlichkeit und Symmetrieattribute der Matrix. Eine Adjazenzmatrix ist auch binär, was mich glauben lässt, dass es einen schnelleren …
Ich muss das gleiche dünne lineare System (300x300 bis 1000x1000) mit vielen rechten Seiten (300 bis 1000) lösen. Zusätzlich zu diesem ersten Problem möchte ich auch verschiedene Systeme lösen, aber mit denselben Nicht-Null-Elementen (nur unterschiedlichen Werten), das sind viele spärliche Systeme mit konstantem Sparsity-Muster. Meine Matrizen sind unbestimmt. Die Leistung …
Ich verwende MATLAB, um ein Problem zu lösen, bei dem zu jedem Zeitpunkt gelöst wird, wobei sich mit der Zeit ändert. Im Moment mache ich das mit MATLABs :Ax=bAx=b\mathbf{A} \mathbf{x}=\mathbf{b}bb\mathbf{b}mldivide x = A\b Ich habe die Flexibilität, so viele Vorberechnungen wie nötig durchzuführen, und frage mich, ob es eine schnellere …
Ich bin auf der Suche nach einer Bibliothek, die Matrixoperationen mit großen, spärlichen Matrizen ausführt, ohne die numerische Stabilität zu beeinträchtigen. Matrizen werden 1000+ mal 1000+ sein und die Werte der Matrix werden zwischen 0 und 1000 liegen. Ich werde den Indexberechnungsalgorithmus ausführen , so dass ich (spärliche) Zeilenvektoren der …
Ich frage mich: Was ist der beste Algorithmus zu lösen dudt= A ududt=EINu\begin{equation} \frac{du}{dt} = Au \end{equation} WobeiEINEINAeine reellen × nn×nn\times nMatrix ist. A ist nicht explizit zeitabhängig, in der Regel spärlich, aber nicht unbedingt gebändert. Ihre Eigenwerte haben nicht positive Realteile. A ist ebenfalls diagonalisierbar, kann jedoch zu groß …
Das Papier "Expression Templates Revisited: Eine Leistungsanalyse aktueller Methoden" im SIAM Journal of Scientific Computing verweist auf die lineare Algebra-Bibliothek "Blaze". Ich habe noch nie davon gehört und kann anscheinend keine Online-Referenzen finden. (Die offensichtliche Google-Suche gibt das oben genannte Papier zurück.) Was ist diese Bibliothek und wo kann ich …
Ich arbeite an einer Nur-Header-Matrixbibliothek, um einen angemessenen Grad an linearer Algebra in einem möglichst einfachen Paket bereitzustellen, und ich versuche, einen Überblick über den aktuellen Stand der Technik zu erhalten: die SVD von a komplexe Matrix. Ich mache eine zweiphasige Zerlegung, Bidiagonalisierung, gefolgt von einer Berechnung des Singularwerts. Im …
Ich löse ein physikalisches Problem mit Hilfe eines impliziten numerischen Schemas. Dies führt mich zur Lösung einer linearen Gleichung mit einer tridiagonalen Matrix. Ich habe diesen Algorithmus von Wikipedia codiert . Ich frage mich, ob es eine effiziente Bibliothek gibt, die es ermöglicht, diese Art von Gleichung auf optimierte Weise …
Sowohl bei der Domänenzerlegung (DD) als auch bei der Multigrid-Methode (MG) kann man die Anwendung der Blockaktualisierungen oder der Grobkorrekturen entweder additiv oder multiplikativ zusammenstellen . Für Punktlöser ist dies der Unterschied zwischen der Jacobi- und der Gauß-Seidel-Iteration. Die multiplikative glattere für , die als S ( x o l …
Bei zwei Matrizen und B möchte ich die Vektoren x und y so finden, dass min ∑ i j ( A i j - x i y j B i j ) 2 . In Matrixform versuche ich, die Frobenius-Norm von A - diag ( x ) ⋅ B ⋅ …
Angenommen, ist eine symmetrische, positiv definierte Matrix. ist groß genug, dass es teuer ist, direkt zu lösen . A A x = bA∈Rn×nA∈Rn×nA\in\mathbb{R}^{n\times n}AAAAx=bAx=bAx=b Gibt es einen iterativen Algorithmus zum Finden des kleinsten Eigenwerts von , bei dem in jeder Iteration invertiert wird?A.AAAAAA Das heißt, ich müsste einen iterativen Algorithmus …
Das komplexe innere Produkt hat zwei verschiedene Definitionen, die durch Konventionen festgelegt werden: oder . In BLAS habe ich die Routinen cdotu, zdotu und cdotc, zdotc gefunden. Die beiden ersteren Routinen berechnen tatsächlich (ein falsches inneres Produkt!) Und die letzten beiden Routinen konjugieren den ersten Vektor im inneren Produkt. Nach …
In Nocedal & Wrights Buch über numerische Optimierung gibt es in Abschnitt 2.2 (Seite 27) eine Aussage: "Im Allgemeinen ist es einfacher, die Skaleninvarianz für Liniensuchalgorithmen als für Vertrauensbereichsalgorithmen beizubehalten." Im selben Abschnitt wird über neue Variablen gesprochen, bei denen es sich um skalierte Versionen der ursprünglichen Variablen handelt, die …
Ich habe eine Liste symmetrischer Matrizen, die ich auf positive Halbbestimmtheit prüfen muss (dh ihre Eigenwerte sind nicht negativ).L.L{\cal L} Der obige Kommentar impliziert, dass man dies tun könnte, indem man die jeweiligen Eigenwerte berechnet und prüft, ob sie nicht negativ sind (möglicherweise muss man sich um Rundungsfehler kümmern). Das …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.