Wie bereits erwähnt, steht für die Anzahl der geschätzten Parameter . Mit anderen Worten, es ist die Anzahl der zusätzlichen Mengen, die Sie wissen müssen, um das Modell vollständig zu spezifizieren. Im einfachen linearen Regressionsmodell
y = a x + b können
Sie a , b oder beides schätzen . Welche Mengen Sie nicht schätzen, müssen Sie korrigieren. Es gibt kein "Ignorieren" eines Parameters in dem Sinne, dass Sie ihn nicht kennen und sich nicht darum kümmern. Das gebräuchlichste Modell, das nicht sowohl a als auch b schätzt, ist das No-Intercept-Modell, bei dem wir b = 0 festlegenk
y=ax+b
ababb=0. Dies wird 1 Parameter haben. Sie können
oder
b = 1 genauso gut korrigieren, wenn Sie Grund zu der Annahme haben, dass es die Realität widerspiegelt. (Feiner Punkt:
σ ist auch ein Parameter in einer einfachen linearen Regression, aber da es in jedem Modell vorhanden ist, können Sie es fallen lassen, ohne die Vergleiche von AIC zu beeinflussen.)
a=2b=1σ
Wenn Ihr Modell
ist, hängt die Anzahl der Parameter davon ab, ob Sie einen dieser Werte festlegen, und von der Form von f . Wenn wir beispielsweise a , b , c schätzen wollen und wissen, dass f ( c , x ) = x c ist , haben wir beim Ausschreiben des Modells
y = a x c + b
mit drei unbekannten Parametern. Wenn jedoch f ( c ,
y=af(c,x)+b
fa,b,cf(c,x)=xcy=axc+b
, dann haben wir das Modell
y = a c x + b,
das wirklich nur zwei Parameter hat:
a c und
b .
f(c,x)=cxy=acx+b
acb
Es ist entscheidend, dass eine Familie von Funktionen ist, die durch c indiziert werden . Wenn Sie nur wissen, dass f ( c , x ) stetig ist und es von c und x abhängt , haben Sie Pech, weil es unzählige stetige Funktionen gibt.f(c,x)cf(c,x)cx