Ich las über die Optimierung für ein schlecht gestelltes Problem in der Bildverarbeitung und fand die folgende Erklärung zur Optimierung in Wikipedia. Was ich nicht verstehe ist, warum nennen sie diese Optimierung in Computer Vision " Energieminimierung "? Ein Optimierungsproblem kann folgendermaßen dargestellt werden: Gegeben: eine Funktion von einer Menge …
Ich weiß, dass k-means normalerweise mit Expectation Maximization optimiert wird . Wir könnten jedoch die Verlustfunktion genauso optimieren wie alle anderen! Ich habe einige Artikel gefunden, die tatsächlich eine stochastische Gradientenabnahme für großräumige k-Mittelwerte verwenden, aber ich konnte meine Frage nicht beantworten. Weiß jemand, warum das so ist? Liegt es …
Ich habe den folgenden Ausdruck schon einmal gehört: "Optimierung ist die Wurzel allen Übels in der Statistik". Die beste Antwort in diesem Thread gibt diese Aussage beispielsweise in Bezug auf die Gefahr einer zu aggressiven Optimierung bei der Modellauswahl wieder. Meine erste Frage lautet wie folgt: Kann dieses Zitat jemand …
Gibt es Empfehlungen für die Auswahl einer eingeschränkten Optimierungsbibliothek, die für meine Optimierungsfunktion geeignet ist? Ich minimiere ai) nichtlineare Funktion mit linearen Gleichungs- und Ungleichungsbeschränkungen, und ii) habe den Gradienten und den Hessischen Wert der Funktion zur Verfügung. Wenn es hilft, ist die Funktion, die ich minimiere, die Kullback-Liebler-Divergenz . …
Ich habe über den Adam-Optimierer für Deep Learning gelesen und bin in dem neuen Buch Deep Learning von Begnio, Goodfellow und Courtville auf folgenden Satz gestoßen: Adam schließt Vorspannungskorrekturen an den Schätzungen sowohl der Momente erster Ordnung (dem Impulsausdruck) als auch der (nicht zentrierten) Momente zweiter Ordnung ein, um ihre …
Mein Ziel ist es, Sensorsignale zu klassifizieren. Das bisherige Konzept meiner Lösung lautet: i) Konstruieren von Features aus dem Rohsignal ii) Auswählen relevanter Features mit ReliefF und einem Clustering-Ansatz iii) Anwenden von NN, Random Forest und SVM Ich bin jedoch in einem Dilemma gefangen. In ii) und iii) gibt es …
Der Zweck des Papiers bestand darin, einige Parameter durch Maximierung der regulierten Log-Wahrscheinlichkeit zu optimieren. Dann berechnen sie partielle Ableitungen. Und dann erwähnen die Autoren, dass sie die Gleichung mit L-BFGS optimieren, einem Standard-Quasi-Newton-Verfahren zur Optimierung der glatten Funktionen vieler Variablen (keine weiteren Details). Wie funktioniert es ?
Normalerweise passen wir in der logistischen Regression ein Modell an und erhalten einige Vorhersagen zum Trainingssatz. Anschließend validieren wir diese Trainingsvorhersagen (so ähnlich wie hier ) und bestimmen den optimalen Schwellenwert auf der Grundlage der ROC-Kurve. Warum integrieren wir die Quervalidierung des Schwellenwerts nicht in das tatsächliche Modell und trainieren …
Ich wollte wissen, wie viel maschinelles Lernen optimiert werden muss. Soweit ich gehört habe, ist Statistik ein wichtiges mathematisches Thema für Menschen, die mit maschinellem Lernen arbeiten. Ebenso wie wichtig ist es für jemanden, der mit maschinellem Lernen arbeitet, etwas über konvexe oder nichtkonvexe Optimierung zu lernen?
Zielsetzung Bestätigen Sie, ob das Verständnis von KKT korrekt ist oder nicht. Weitere Erklärungen und Bestätigungen finden Sie auf KKT. Hintergrund Der Versuch, die KKT-Bedingungen zu verstehen, insbesondere die komplementären, die in SVM-Artikeln immer aus heiterem Himmel auftauchen. Ich brauche keine Liste abstrakter Formeln, sondern eine konkrete, intuitive und grafische …
Ich arbeite an einem Projekt zur kollaborativen Filterung (CF), dh zur Vervollständigung einer teilweise beobachteten Matrix oder allgemeiner eines Tensors. Ich bin ein Neuling auf dem Gebiet, und für dieses Projekt muss ich schließlich unsere Methode mit anderen bekannten vergleichen, die heutzutage vorgeschlagenen Methoden mit ihnen vergleichen, nämlich dem Stand …
Eine der Beweggründe für das elastische Netz war die folgende Einschränkung von LASSO: Im Fall p>np>np > n wählt das Lasso aufgrund der Art des konvexen Optimierungsproblems höchstens n Variablen aus, bevor es gesättigt wird. Dies scheint ein einschränkendes Merkmal für eine variable Auswahlmethode zu sein. Darüber hinaus ist das …
Ein Freund von mir verkauft kkk Modelle von Mixern. Einige der Mixer sind sehr einfach und billig, andere sind sehr raffiniert und teurer. Seine Daten bestehen für jeden Monat aus den von ihm festgelegten Preisen für jeden Mixer und der Anzahl der verkauften Einheiten für jedes Modell. Um eine Notation …
Gibt es schnelle Alternativen zum EM-Algorithmus zum Lernen von Modellen mit latenten Variablen (insbesondere pLSA)? Ich finde es in Ordnung, die Präzision zugunsten der Geschwindigkeit zu opfern.
Der Naive Bayes-Klassifikator ist der Klassifikator, der Elemente einer Klasse auf der Grundlage der Maximierung des hinteren für die Klassenzugehörigkeit zuordnet und davon ausgeht, dass die Merkmale der Elemente unabhängig sind.C P ( C | x )xxxCCCP( C| x)P(C|x)P(C|x) Der 0-1-Verlust ist der Verlust, der einer Fehlklassifizierung einen Verlust von …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.