Die Wahrscheinlichkeitsfunktion ist definiert als die Wahrscheinlichkeit eines Ereignisses (Datensatz ) in Abhängigkeit von den Modellparameternx θExθ
L(θ;x)∝P(Event E;θ)=P(observing x;θ).
Es besteht daher keine Vermutung der Unabhängigkeit der Beobachtungen. Im klassischen Ansatz gibt es keine Definition für die Unabhängigkeit von Parametern, da es sich nicht um Zufallsvariablen handelt. einige relevanten Konzepte könnten Identifizierbarkeit , Parameter Orthogonalität , und die Unabhängigkeit des Maximum - Likelihood - Schätzer (die Zufallsvariablen).
Einige Beispiele,
(1). Diskreter Fall . ist eine Probe (unabhängiger) diskreter Beobachtungen mit , dannP ( Beobachtung x j ; θ ) > 0x =( x1, . . . , xn)P (Beobachtung von xj; θ ) > 0
L (θ;x)∝ ∏j = 1nP (Beobachtung von xj;θ).
Insbesondere wenn ist und N bekannt ist, haben wir dasxj∼Binomial(N,θ)N
L(θ;x)∝∏j=1nθxj(1−θ)N−xj.
(2). Kontinuierliche Approximation . Let wird , um eine Probe aus einer kontinuierlichen Zufallsvariablen X , mit der Verteilung F und Dichte f , mit Messfehlern ε , ist dies, um die Sätze beobachten ( x j - ε , x j + ϵ ) . Dannx=(x1,...,xn)XFfϵ(xj−ϵ,xj+ϵ)
L(θ;x)∝∏j=1nP[observing (xj−ϵ,xj+ϵ);θ]=∏j=1n[F(xj+ ϵ ; θ ) - F( xj- ϵ ; θ ) ]
Wenn klein ist, kann dies (unter Verwendung des Mittelwertsatzes) durch angenähert werdenϵ
L (θ;x)∝ ∏j = 1nf( xj; θ )
Ein Beispiel mit dem Normalfall, werfen Sie einen Blick auf diese .
(3). Abhängiges und Markov-Modell . Nehmen wir an, dass ist eine Reihe von Beobachtungen , möglicherweise abhängig und lassen f die gemeinsame Dichte sein x , dannx =( x1, . . . , xn)fx
L (θ;x)≤f( x ; θ ) .
Wenn zusätzlich die Markov-Eigenschaft erfüllt ist, dann
L (θ;x)≤f( x ; & thgr ; ) = f( x1; θ ) ∏j = 1n - 1f( xj + 1| xj; θ ) .
Nehmen Sie auch einen Blick auf diese .