Gibt es schnelle Alternativen zum EM-Algorithmus zum Lernen von Modellen mit latenten Variablen (insbesondere pLSA)? Ich finde es in Ordnung, die Präzision zugunsten der Geschwindigkeit zu opfern.
Angenommen, ich habe eine Bevölkerung von 50 Millionen Unikaten, und ich nehme 10 Millionen Proben (mit Ersatz) ... Die erste Grafik, die ich beigefügt habe, zeigt, wie oft ich das gleiche "Ding" probiere, was relativ selten ist wie die Bevölkerung ist größer als meine Stichprobe. Wenn meine Bevölkerung jedoch nur …
Ich versuche, zwei Wertegruppen von einem einzigen Datensatz zu trennen. Ich kann davon ausgehen, dass eine der Populationen normal verteilt ist und mindestens halb so groß wie die Stichprobe ist. Die Werte der zweiten sind beide niedriger oder höher als die Werte der ersten (Verteilung ist unbekannt). Was ich versuche, …
Ich habe einige einfache konzeptionelle Fragen, die ich in Bezug auf MLE (Maximum Likelihood Estimation) klären möchte, und welchen Zusammenhang es gegebenenfalls mit EM (Expectation Maximization) hat. Wenn jemand sagt, "Wir haben die MLE verwendet", bedeutet dies nach meinem Verständnis dann automatisch, dass er ein explizites Modell der PDF-Datei seiner …
Angenommen, ich habe eine Reihe unabhängiger, identisch verteilter univariater Beobachtungen und zwei Hypothesen darüber, wie x erzeugt wurde:xxxxxx : x wird aus einer einzelnen Gaußschen Verteilung mit unbekanntem Mittelwert und unbekannter Varianz gezogen.H.0H.0H_0xxx : x wird aus einer Mischung von zwei Gaußschen mit unbekanntem Mittelwert, Varianz und Mischungskoeffizienten gezogen.H.EINH.EINH_Axxx Wenn …
Was sind die Vorteile der Angabe bestimmter Anfangswerte für Übergangswahrscheinlichkeiten in einem Hidden-Markov-Modell? Irgendwann wird das System sie lernen. Was bringt es also, andere als zufällige Werte anzugeben? Macht der zugrunde liegende Algorithmus einen Unterschied wie Baum-Welch? Was würden Sie mir raten, wenn ich die Übergangswahrscheinlichkeiten zu Beginn sehr genau …
Das auf Null aufgeblasene Poisson-Regressionsmodell wird für eine Stichprobe durch und es wird ferner angenommen, dass die Parameter und erfüllt sindY i = { 0 mit der Wahrscheinlichkeit p i + ( 1 - p i ) e - λ i k mit der Wahrscheinlichkeit ( 1 - p i …
Kann jemand klären, wie versteckte Markov-Modelle mit der Maximierung der Erwartungen zusammenhängen? Ich habe viele Links durchgesehen, konnte aber keine klare Sicht finden. Vielen Dank!
Ich versuche, einen EM-Algorithmus für das folgende Faktoranalysemodell zu implementieren. W.j= μ + B aj+ ejzumj = 1 , … , nWj=μ+Baj+ejforj=1,…,nW_j = \mu+B a_j+e_j \quad\text{for}\quad j=1,\ldots,n wobei ein p-dimensionaler Zufallsvektor ist, a j ein q-dimensionaler Vektor latenter Variablen ist und B eine pxq-Matrix von Parametern ist.W.jWjW_jeinjaja_jB.BB Aufgrund anderer für …
Mathematisch gesehen wird oft gesehen, dass Ausdrücke und Algorithmen für die Erwartungsmaximierung (Expectation Maximization, EM) für gemischte Modelle oft einfacher sind, aber es scheint, dass fast alles (wenn nicht alles), was mit EM gelöst werden kann, auch mit MLE gelöst werden kann (z. B. durch die Newton-Raphson-Methode für Ausdrücke, die …
In dieser beliebten Frage trennen sich MLE und Baum Welch aufgrund der hoch bewerteten Antwort in der HMM-Anpassung. Für Trainingsprobleme können wir die folgenden 3 Algorithmen verwenden: MLE (Maximum Likelihood Estimation), Viterbi-Training (NICHT mit Viterbi-Decodierung verwechseln), Baum Welch = Vorwärts-Rückwärts-Algorithmus ABER in Wikipedia heißt es Der Baum-Welch-Algorithmus verwendet den bekannten …
Die Frage basiert auf dem Artikel mit dem Titel: Bildrekonstruktion in der diffusen optischen Tomographie unter Verwendung des gekoppelten Strahlungstransport-Diffusions-Modells Download-Link Die Autoren wenden EM-Algorithmus sparsity Regularisierung einer unbekannten Vektors die Pixel eines Bildes zu schätzen. Das Modell ist gegeben durchl1l1l_1μμ\mu y=Aμ+e(1)(1)y=Aμ+ey=A\mu + e \tag{1} Die Schätzung ist in Gleichung …
Ich lerne derzeit hierarchische Bayes'sche Modelle mit JAGS von R und Pymc mit Python ( "Bayes'sche Methoden für Hacker" ). Ich kann mir einen Eindruck von diesem Beitrag verschaffen : "Sie werden am Ende einen Haufen Zahlen haben, der aussieht", als ob "Sie es irgendwie geschafft hätten, unabhängige Proben aus …
Ich studiere das Gaußsche Mischungsmodell und stelle mir diese Frage selbst. Angenommen, die zugrunde liegenden Daten werden aus einer Mischung der Gaußschen Verteilung erzeugt und jeder von ihnen hat einen mittleren Vektor , wobei und jeder von ihnen die gleiche Ko- hat Varianzmatrix und nehmen an, dass diese eine Diagonalmatrix …
Ich habe ein Mischungsmodell, mit dem ich den Maximum-Likelihood-Schätzer für einen gegebenen Datensatz xxx und einen Satz teilweise beobachteter Daten finden möchte zzz. Ich habe sowohl den E-Schritt (Berechnung der Erwartung von zzz bei xxx und der aktuellen Parameter θkθk\theta^k ) als auch den M-Schritt implementiert , um die negative …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.