Wenn ich richtig gerechnet habe, hat die logistische Regression asymptotisch die gleiche Kraft wie der t-Test. Um dies zu sehen, notieren Sie sich die Log-Wahrscheinlichkeit und berechnen Sie die Erwartung des Hessischen Maximums (das Negative schätzt die Varianz-Kovarianz-Matrix der ML-Lösung). Kümmern Sie sich nicht um die übliche logistische Parametrisierung: Es ist einfacher, sie mit den beiden fraglichen Wahrscheinlichkeiten zu parametrisieren. Die Details hängen genau davon ab, wie Sie die Signifikanz eines logistischen Regressionskoeffizienten testen (es gibt verschiedene Methoden).
Dass diese Tests ähnliche Potenzen haben, sollte nicht allzu überraschend sein, da die Chi-Quadrat-Theorie für ML-Schätzungen auf einer normalen Annäherung an die logarithmische Wahrscheinlichkeit und der t-Test auf einer normalen Annäherung an die Proportionsverteilungen basiert. Der springende Punkt ist, dass beide Methoden die gleichen Schätzungen der beiden Anteile vornehmen und beide Schätzungen die gleichen Standardfehler aufweisen.
Eine tatsächliche Analyse könnte überzeugender sein. Nehmen wir eine allgemeine Terminologie für die Werte in einer bestimmten Gruppe (A oder B) an:
- p ist die Wahrscheinlichkeit einer 1.
- n ist die Größe jedes Zeichnungssatzes.
- m ist die Anzahl der Ziehungssätze.
- N= m n ist die Datenmenge.
- 0 1 j th i thkich j (gleich oder ) ist der Wert des Ergebnisses von in der Menge von Draws.01jthichth
- i thkich ist die Gesamtzahl von Einsen in der Menge von Ziehungen.ichth
- k ist die Gesamtzahl von Einsen.
Die logistische Regression ist im Wesentlichen der ML-Schätzer von . Sein Logarithmus ist gegeben durchp
Log( L ) = k log( p ) + ( N- k ) log( 1 - p ) .
Seine Ableitungen bezüglich des Parameters sindp
∂Log( L )∂p= kp- N- k1 - p und
- ∂2Log( L )∂p2= kp2+ N- k( 1 - p )2.
Das Setzen der ersten auf Null ergibt die ML-Schätzung und das Einfügen in den Kehrwert des zweiten Ausdrucks ergibt die Varianz , Das ist das Quadrat des Standardfehlers. p (1 - p )/Np^= k / Np^( 1 - p^) / N
Die t-Statistik wird von Schätzern auf der Grundlage der nach Ziehungssätzen gruppierten Daten erhalten. nämlich als Differenz der Mittelwerte (einer aus Gruppe A und der anderen aus Gruppe B) dividiert durch den Standardfehler dieser Differenz, der sich aus den Standardabweichungen der Mittelwerte ergibt. Schauen wir uns dann den Mittelwert und die Standardabweichung für eine bestimmte Gruppe an. Der Mittelwert entspricht , was mit dem ML-Schätzer identisch ist . Die fragliche Standardabweichung ist die Standardabweichung des Ziehmittels; das heißt, es ist die Standardabweichung der Menge von . Hier ist der Kern der Sache, also lasst uns einige Möglichkeiten untersuchen.p K i / nk / Np^kich/ n
Angenommen , die Daten gruppiert sind , nicht in überhaupt zieht: das heißt, und . Die sind die Zeichenmittel. Ihre Stichprobenvarianz ist gleich mal . Daraus folgt, dass der Standardfehler abgesehen von einem Faktor von , der im Wesentlichen wenn mit dem ML-Standardfehler identisch ist . Abgesehen von diesem kleinen Unterschied sind alle Tests, die auf logistischer Regression basieren, mit einem T-Test identisch, und wir erzielen im Wesentlichen die gleiche Leistung.m = N k i N / ( N - 1 ) , p ( 1 - p ) √n = 1m = NkichN/ (N- 1 )p^( 1 - p^) 1N=1800N/ (N- 1 )---------√1N= 1800
Wenn die Daten gruppiert werden, ist die (wahre) Varianz von gleich da die Statistiken die Summe von Bernoulli ( ) -Variablen mit jeweils der Varianz . Daher ist die erwartete Standardabweichung des Mittelwertes von dieser Werte ist die Quadratwurzel von , so wie zuvor.p ( 1 - p ) / n k i n p p ( 1 - p ) m p ( 1 - p ) / n / m = p ( 1 - p ) / Nkich/ np ( 1 - p ) / nkichnpp ( 1 - p )mp ( 1 - p ) / n / m = p ( 1 - p ) / N
Nummer 2 gibt an, dass die Stärke des Tests nicht nennenswert von der Verteilung der Ziehungen abhängen sollte (d. H. Wie und abhängig von variiert werden ), abgesehen von möglicherweise einem relativ geringen Effekt aus der Anpassung der Stichprobenvarianz (es sei denn, Sie waren so dumm, dass Sie innerhalb jeder Gruppe nur sehr wenige Sätze von Draws verwenden).n m n = Nmnm n = N
Eingeschränkte Simulationen zum Vergleich von mit (mit jeweils 10.000 Iterationen) mit (im Wesentlichen logistische Regression); ; und (Maximierung der Stichprobenvarianzanpassung) belegen dies: Die Leistung (bei , einseitig) in den ersten beiden Fällen beträgt 0,59, wohingegen im dritten Fall der Anpassungsfaktor a ergibt materielle Veränderung (es gibt nur noch zwei Freiheitsgrade anstelle von 1798 oder 58), sie sinkt auf 0,36. Ein weiterer Test vergleicht mitp = 0,74 m = 900 , n = 1 m = n = 30 m = 2 , n = 450 & agr; = 0,05 p = 0,50 p = 0,52p = 0,70p = 0,74m = 900 , n = 1m = n = 30m = 2 , n = 450α = 0,05p = 0,50p = 0,52 ergibt Potenzen von 0,22, 0,21 bzw. 0,15: Auch hier beobachten wir nur einen leichten Rückgang von keiner Gruppierung in Ziehungen (= logistische Regression) zu einer Gruppierung in 30 Gruppen und einen deutlichen Rückgang auf nur zwei Gruppen.
Die Moral dieser Analyse ist:
- Sie verlieren nicht viel, wenn Sie Ihre Datenwerte in eine große Anzahl relativ kleiner Gruppen von "Draws" aufteilen.mNm
- Bei einer geringen Anzahl von Gruppen ( ist klein, - die Datenmenge pro Gruppe - ist groß) können Sie beträchtliche Leistung verlieren .nmn
- Am besten gruppieren Sie Ihre Datenwerte überhaupt nicht in "Draws". Analysieren Sie sie einfach so, wie sie sind (unter Verwendung eines angemessenen Tests, einschließlich logistischer Regression und T-Tests).N