Unterschied zwischen Bayes'schen Netzwerken und Markov-Prozess?


28

Was ist der Unterschied zwischen einem Bayes'schen Netzwerk und einem Markov-Prozess?

Ich glaubte, die Prinzipien von beiden verstanden zu haben, aber jetzt, wo ich die beiden vergleichen muss, fühle ich mich verloren. Sie bedeuten mir fast dasselbe. Sicher sind sie nicht.

Links zu anderen Ressourcen sind ebenfalls willkommen.


Ich erinnere mich, dass mir auf dieser Site jemand gesagt hat, dass Bayes'sche Netzwerke nicht unbedingt Bayes'schen Rückschluss erfordern. Ihre Namen stammen aus der Bayes-Regel.
Tim

Antworten:


21

Ein probabilistisches graphisches Modell (PGM) ist ein Graphformalismus zur kompakten Modellierung gemeinsamer Wahrscheinlichkeitsverteilungen und (In-) Abhängigkeitsrelationen über eine Reihe von Zufallsvariablen. Ein PGM wird als Bayes'sches Netzwerk bezeichnet, wenn der zugrunde liegende Graph gerichtet ist, und als Markov-Netzwerk / Markov-Zufallsfeldwenn das zugrunde liegende Diagramm ungerichtet ist. Im Allgemeinen verwenden Sie erstere, um den probabilistischen Einfluss zwischen Variablen mit eindeutiger Richtwirkung zu modellieren, andernfalls verwenden Sie letztere. In beiden PGM-Versionen stellen die fehlenden Kanten in den zugehörigen Diagrammen bedingte Unabhängigkeit in den codierten Verteilungen dar, obwohl sich deren genaue Semantik unterscheidet. Das "Markov" in "Markov-Netzwerk" bezieht sich auf einen allgemeinen Begriff der bedingten Unabhängigkeit, der von PGMs codiert wird, wobei der Begriff einer Menge von Zufallsvariablen xA unabhängig von anderen xC wenn eine Menge von "wichtigen" Variablen xB (der technische Name) gegeben ist ist eine Markov-Decke ), dhp(xA|xB,xC)=p(xA|xB) .

Ein Markov-Prozess ist ein beliebiger stochastischer Prozess {Xt} , der die Markov-Eigenschaft erfüllt . Hier liegt der Schwerpunkt auf einer Sammlung von (Skalare) Zufallsvariablen X1,X2,X3,...wird typischerweise als zeitindiziert angesehen, was eine bestimmte Art von bedingter Unabhängigkeit erfüllt, dh "die Zukunft ist unabhängig von der Vergangenheit angesichts der Gegenwart", grob gesagt p(xt+1|xt,xt1,...,x1)=p(xt+1|xt) . Dies ist ein Sonderfall des von PGMs definierten Markov-Begriffs: Nimm einfach die MengeA={t+1},B={t} und nimmC als eine beliebige Teilmenge von{t1,t2,...,1}und invoke der vorherigen Anweisung p(xA|xB,xC)=p(xA|xB) . Daraus sehen wir, dass die Markov-Decke einer Variablen Xt+1 ihre Vorgängerin Xt .

Daher können Sie einen Markov-Prozess mit einem Bayes'schen Netzwerk als eine durch die Zeit indizierte lineare Kette darstellen (der Einfachheit halber betrachten wir hier nur den Fall einer diskreten Zeit / eines diskreten Zustands; Bild aus Bishops PRML-Buch): Bildbeschreibung hier eingeben Diese Art von Bayes'schem Netzwerk ist bekannt als dynamisches Bayes'sches Netzwerk . Da es sich um ein Bayes'sches Netzwerk handelt (daher um ein PGM), können Standard-PGM-Algorithmen für probabilistische Inferenz (wie der Summenproduktalgorithmus, für den die Chapman-Kolmogorov-Gleichungen einen Sonderfall darstellen) und Parameterschätzung (z. B. maximale Wahrscheinlichkeit, die siedet) angewendet werden bis zum einfachen Zählen) über die Kette. Beispielanwendungen hierfür sind das HMM- und das n-Gramm-Sprachmodell.

Oft sieht man eine Diagrammdarstellung einer Markov-Kette wie dieseBildbeschreibung hier eingeben

p(Xt|Xt1)Xt(Xt(1),...Xt(D))p(Xt(1),...Xt(D)|Xt1(1),...Xt1(D))

Xttp(xt+1|xt,xt1,...,x1)=p(xt+1|xt)


17

Zunächst ein paar Worte zu Markov-Prozessen. Es gibt vier verschiedene Arten dieser Bestie, abhängig vom Zustandsraum (diskret / kontinuierlich) und der Zeitvariablen (diskret / kontinuierlich). Die Grundidee eines jeden Markov-Prozesses ist, dass "angesichts der Gegenwart die Zukunft unabhängig von der Vergangenheit ist".

Der einfachste Markov-Prozess ist der diskrete und endliche Raum und die zeitdiskrete Markov-Kette. Sie können es als eine Reihe von Knoten mit gerichteten Kanten zwischen diesen visualisieren. Der Graph kann Zyklen und sogar Schleifen aufweisen. Auf jede Kante können Sie eine Zahl zwischen 0 und 1 so schreiben, dass sich für jeden Knoten die Zahlen der Kanten, die von diesem Knoten ausgehen, zu 1 addieren.

Stellen Sie sich nun einen folgenden Vorgang vor: Sie beginnen in einem bestimmten Zustand A. Jede Sekunde wählen Sie zufällig eine ausgehende Kante aus dem Zustand, in dem Sie sich gerade befinden, mit der Wahrscheinlichkeit, dass diese Kante der Zahl auf dieser Kante entspricht. Auf diese Weise erzeugen Sie zufällig eine Folge von Zuständen.

Eine sehr coole Visualisierung eines solchen Prozesses finden Sie hier: http://setosa.io/blog/2014/07/26/markov-chains/

Die Nachricht zum Mitnehmen ist, dass eine grafische Darstellung eines diskreten zeitdiskreten Markov-Prozesses ein allgemeiner Graph ist, der eine Verteilung auf Sequenzen von Knoten des Graphen darstellt (bei gegebenem Startknoten oder einer Startverteilung auf Knoten).

Andererseits ist ein Bayes'sches Netzwerk eine DAG ( Directed Acyclic Graph ), die eine Faktorisierung einer gemeinsamen Wahrscheinlichkeitsverteilung darstellt. Normalerweise versucht diese Darstellung, die bedingte Unabhängigkeit zwischen einigen Variablen zu berücksichtigen, um das Diagramm zu vereinfachen und die Anzahl der zur Schätzung der gemeinsamen Wahrscheinlichkeitsverteilung erforderlichen Parameter zu verringern.


3

Während ich nach einer Antwort auf dieselbe Frage suchte, stieß ich auf diese Antworten. Aber keiner von ihnen klärt das Thema. Als ich einige gute Erklärungen fand, wollte ich sie mit Leuten teilen, die so dachten wie ich.

In Buch "Probabilistisches Denken in intelligenten Systemen: Netzwerke plausibler Folgerungen", geschrieben von Judea Pearl, Kapitel 3: Markov- und Bayes'sche Netzwerke: Zwei grafische Darstellungen von probabilistischem Wissen, S.116:

Die Hauptschwäche von Markov-Netzwerken ist ihre Unfähigkeit, induzierte und nicht-transitive Abhängigkeiten darzustellen. Zwei unabhängige Variablen werden direkt durch eine Kante verbunden, nur weil eine andere Variable von beiden abhängt. Infolgedessen werden viele nützliche Abhängigkeiten im Netzwerk nicht dargestellt. Um diesen Mangel zu überwinden, verwenden Bayes'sche Netzwerke die reichhaltigere Sprache gerichteter Graphen, wobei die Pfeilrichtungen es ermöglichen, echte Abhängigkeiten von unechten Abhängigkeiten zu unterscheiden, die durch hypothetische Beobachtungen hervorgerufen werden.


1

Ein Markov-Prozess ist ein stochastischer Prozess mit der Markovian-Eigenschaft (wenn der Index der Zeitpunkt ist, ist die Markovian-Eigenschaft eine besondere bedingte Unabhängigkeit, die besagt, dass gegebene Gegenwart, Vergangenheit und Zukunft unabhängig sind.)

Ein Bayes'sches Netzwerk ist ein gerichtetes grafisches Modell. (Ein Markov-Zufallsfeld ist ein ungerichtetes grafisches Modell.) Ein grafisches Modell erfasst die bedingte Unabhängigkeit, die sich von der Markovian-Eigenschaft unterscheiden kann.

Ich bin mit grafischen Modellen nicht vertraut, aber ich denke, ein grafisches Modell kann als stochastischer Prozess angesehen werden.


1

-Die allgemeine Idee eines Markov-Prozesses ist, dass "angesichts der Gegenwart die Zukunft unabhängig von der Vergangenheit ist".

-Die allgemeine Idee einer Bayes'schen Methode ist, dass "vorausgesetzt, die Zukunft ist unabhängig von der Vergangenheit", ihre Parameter, sofern sie durch Beobachtungen indiziert werden, einem Markov-Prozess folgen

PLUS

msgstr "" "Alle folgenden Punkte werden gleich sein, wenn ich meine Überzeugungen aktualisiere

  • Sie geben mir neue Informationen A, dann geben Sie mir neue Informationen B,
  • Sie geben mir neue Informationen B, dann neue Informationen A
  • du gibst mir A und B zusammen "

Seine Parameter werden also wirklich ein Markov-Prozess sein, der nach Zeit und nicht nach Beobachtungen indiziert ist

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.