Der partielle F-Test ist die gebräuchlichste Testmethode für ein verschachteltes normales lineares Regressionsmodell. "Verschachteltes" Modell ist nur eine ausgefallene Art, ein reduziertes Modell in Bezug auf die enthaltenen Variablen auszudrücken.
Nehmen wir zur Veranschaulichung an, Sie möchten die Hypothese testen, dass p Koeffizienten Null sind, und daher können diese Variablen im Modell weggelassen werden, und Sie haben auch k Koeffizienten im vollständigen Modell (einschließlich des Achsenabschnittes). Der Test basiert auf dem Vergleich der verbleibenden Quadratsumme (RSS). Daher müssen Sie zwei separate Regressionen ausführen und die RSS von jeder einzelnen speichern. Für das vollständige Modell wird der RSS-Wert niedriger sein, da das Hinzufügen neuer Variablen ausnahmslos zu einer Verringerung des RSS-Werts führt (und zu einer Erhöhung der erklärten Quadratsumme, was eng mit R2). Wir testen daher, ob der Unterschied so groß ist, dass das Entfernen der Variablen das Modell beeinträchtigt. Lassen Sie uns etwas genauer sein. Der Test hat die folgende Form
F= R SSR e du c e d- R SSFu l lpR SSFu l ln - k
Es kann gezeigt werden, dass die Variablen im Zähler und im Nenner, wenn sie mit skaliert werden, unabhängige Variablen mit Freiheitsgraden bzw. sind, daher ist das Verhältnis ein F- verteilte Zufallsvariable mit den Parametern und . Sie lehnen die Nullhypothese ab, dass das reduzierte Modell geeignet ist, wenn die Statistik einen kritischen Wert der genannten Verteilung überschreitet, was wiederum der Fall ist, wenn Ihr Modell nach dem Entfernen der Variablen zu viel Erklärungskraft verliert. 1σ2χ2p n - kpn - k
Die Statistik kann tatsächlich aus der Sicht des Wahrscheinlichkeitsverhältnisses abgeleitet werden und weist daher einige gute Eigenschaften auf, wenn die Standardannahmen des linearen Modells erfüllt sind, beispielsweise konstante Varianz, Normalität und so weiter. Es ist auch leistungsfähiger als eine Reihe von Einzeltests, ganz zu schweigen davon, dass es das gewünschte Signifikanzniveau hat.