Ich habe gelesen, dass HMMs, Partikelfilter und Kalman-Filter Spezialfälle von dynamischen Bayes-Netzwerken sind. Ich kenne jedoch nur HMMs und sehe keinen Unterschied zu dynamischen Bayes-Netzwerken.
Könnte jemand bitte erklären?
Es wäre schön, wenn Ihre Antwort ähnlich wie die folgende aussehen könnte, aber für bayes Networks:
Versteckte Markov-Modelle
Ein Hidden Markov Model (HMM) ist ein 5-Tupel :
- : Eine Menge von Zuständen (zB "Beginn des Phonems", "Mitte des Phonems", "Ende des Phonems")
- : Eine Reihe möglicher Beobachtungen (Audiosignale)
- : Eine stochastische Matrix, die Wahrscheinlichkeiten , um vom Zustand zum Zustand .i j
- : Eine stochastische Matrix, die Wahrscheinlichkeiten liefert , um die Beobachtung in den Zustand zu bringen .k l
- : Start der Erstverteilung in einem der Zustände.
Es wird normalerweise als gerichteter Graph angezeigt, wobei jeder Knoten einem Zustand und die Übergangswahrscheinlichkeiten an den Kanten angegeben sind.
Versteckte Markov-Modelle werden als "versteckt" bezeichnet, da der aktuelle Status ausgeblendet ist. Die Algorithmen müssen es aus den Beobachtungen und dem Modell selbst erraten. Sie heißen "Markov", denn für den nächsten Staat ist nur der aktuelle Staat von Bedeutung.
Für HMMs geben Sie eine feste Topologie an (Anzahl der Zustände, mögliche Kanten). Dann gibt es 3 mögliche Aufgaben
- Bewertung : Wie wahrscheinlich ist es bei einem HMM , Beobachtungen zu erhalten (Forward-Algorithmus)o 1 , … , o t
- Decodierung : mit HMM und Beobachtungen , was ist die wahrscheinlichste Folge von Zuständen (Viterbi-Algorithmus)o 1 , … , o t s 1 , … , s t
- Lernen : Lernen Sie : Baum-Welch-Algorithmus , der ein Spezialfall der Erwartungsmaximierung ist.
Bayes-Netzwerke
Bayes-Netzwerke sind gerichtete azyklische Graphen (DAGs) . Die Knoten repräsentieren zufällige Variablen . Für jedes gibt es eine Wahrscheinlichkeitsverteilung, die von den Eltern von abhängig ist :X ≤ X X X
Es scheint zwei Aufgaben zu geben (bitte klären):
- Folgerung : Ermitteln Sie bei bestimmten Variablen die wahrscheinlichsten Werte der anderen Variablen. Genaue Schlussfolgerung ist NP-schwer. Ungefähr können Sie MCMC verwenden.
Lernen : Wie Sie diese Verteilungen lernen, hängt vom genauen Problem ab ( Quelle ):
- bekannte Struktur, vollständig beobachtbar: Maximum Likelihood Estimation (MLE)
- bekannte Struktur, teilweise beobachtbar: Expectation Maximization (EM) oder Markov Chain Monte Carlo (MCMC)
- unbekannte Struktur, vollständig beobachtbar: Suche im Modellraum
- unbekannte Struktur, teilweise beobachtbar: EM + Suche im Modellraum
Dynamische Bayes-Netzwerke
Ich denke, dynamische Bayes-Netzwerke (DBNs) sind auch gerichtete probabilistische grafische Modelle. Die Variabilität scheint von dem sich mit der Zeit ändernden Netzwerk zu stammen. Es scheint mir jedoch, dass dies äquivalent ist, nur dasselbe Netzwerk zu kopieren und jeden Knoten zum Zeitpunkt mit jedem entsprechenden Knoten zum Zeitpunkt . Ist das der fallt + 1