Im Allgemeinen ist der naive Bayes-Klassifikator nicht linear, aber wenn die Wahrscheinlichkeitsfaktoren aus Exponentialfamilien stammen , entspricht der naive Bayes-Klassifikator einem linearen Klassifikator in einem bestimmten Merkmalsraum. Hier ist, wie man das sieht.p(xi∣c)
Sie können jeden naiven Bayes-Klassifikator schreiben als *
p(c=1∣x)=σ(∑ilogp(xi∣c=1)p(xi∣c=0)+logp(c=1)p(c=0)),
Dabei ist die logistische Funktion . Wenn p ( x i ∣ c ) aus einer Exponentialfamilie stammt, können wir es schreiben alsσp(xi∣c)
p(xi∣c)=hi(xi)exp(u⊤icϕi(xi)−Ai(uic)),
und daher
p(c=1∣x)=σ(∑iw⊤iϕi(xi)+b),
woher
wib=ui1−ui0,=logp(c=1)p(c=0)−∑i(Ai(ui1)−Ai(ui0)).
Beachten Sie, dass dies ähnlich ist logistische Regression - ein linearer Klassifikator - in dem Merkmalsraum definiert durch die . Für mehr als zwei Klassen erhalten wir analog eine multinomiale logistische (oder Softmax-) Regression .ϕi
p(xi∣c)ϕi(xi)=(xi,x2i)
wi1wi2bi=σ−21μ1−σ−20μ0,=2σ−20−2σ−21,=logσ0−logσ1,
Angenommen, .p(c=1)=p(c=0)=12
* So leiten Sie dieses Ergebnis ab:
p(c=1∣x)=p(x∣c=1)p(c=1)p(x∣c=1)p(c=1)+p(x∣c=0)p(c=0)=11+p(x∣c=0)p(c=0)p(x∣c=1)p(c=1)=11+exp(−logp(x∣c=1)p(c=1)p(x∣c=0)p(c=0))=σ(∑ilogp(xi∣c=1)p(xi∣c=0)+logp(c=1)p(c=0))