Was ist der Unterschied zwischen Beta-Regression und Quasi-Glm mit Varianz =


8

Lassen Sie mich zunächst einige Hintergrundinformationen geben. Ich werde meine Fragen am Ende zusammenfassen.

Die Beta-Verteilung, parametrisiert durch ihren Mittelwert und ϕ , hat Var ( Y ) = V ( μ ) / ( ϕ + 1 ) , wobei V ( μ ) = μ ( 1 - μ ) die Varianzfunktion ist.μϕVar(Y)=V(μ)/(ϕ+1)V(μ)=μ(1μ)

In einer Beta-Regression (z. B. unter Verwendung des Betareg-Pakets in R) nimmt die Regression Beta-verteilte Fehler an und schätzt die festen Effekte und den Wert von .ϕ

In der glm-Regression ist es möglich, eine "Quasi" -Verteilung mit einer Varianzfunktion von . Hier nimmt das Modell also Fehler mit der gleichen Varianzfunktion wie Beta an. Die Regression schätzt dann die festen Effekte und die "Streuung" der Quasi-Verteilung.μ(1μ)

Ich vermisse vielleicht etwas Wichtiges, aber es scheint, dass diese beiden Methoden im Wesentlichen identisch sind und sich möglicherweise nur in ihrer Schätzmethode unterscheiden.

Ich habe beide Methoden in R ausprobiert und mich auf einem DV namens "Ähnlichkeit" zurückgebildet, der im Intervall :(0,1)

Call:
betareg(formula = Similarity ~ N + NK + Step_ent, data = TapData, link = "logit")

Coefficients (mean model with logit link):
             Estimate Std. Error z value Pr(>|z|)    
(Intercept)  0.715175   0.067805  10.547   <2e-16 ***
N           -0.063806   0.003858 -16.537   <2e-16 ***
NK          -0.362716   0.015008 -24.168   <2e-16 ***
Step_ent    -0.696895   0.070233  -9.923   <2e-16 ***

Phi coefficients (precision model with identity link):
      Estimate Std. Error z value Pr(>|z|)    
(phi)  10.6201     0.2084   50.96   <2e-16 ***
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 

Type of estimator: ML (maximum likelihood)
Log-likelihood:  3817 on 5 Df
Pseudo R-squared: 0.2633
Number of iterations: 18 (BFGS) + 1 (Fisher scoring) 


Call:
glm(formula = Similarity ~ N + NK + Step_ent, family = quasi(link = "logit", 
variance = "mu(1-mu)"), data = TapData)

Coefficients:
             Estimate Std. Error t value Pr(>|t|)    
(Intercept)  0.777451   0.069809  11.137   <2e-16 ***
N           -0.069348   0.003983 -17.411   <2e-16 ***
NK          -0.364702   0.016232 -22.468   <2e-16 ***
Step_ent    -0.704680   0.072491  -9.721   <2e-16 ***
---
Signif. codes:  0***0.001**0.01*0.05 ‘.’ 0.1 ‘ ’ 1

(Dispersion parameter for quasi family taken to be 0.0838547)

    Null deviance: 566.25  on 4974  degrees of freedom
Residual deviance: 422.76  on 4971  degrees of freedom
AIC: NA

Number of Fisher Scoring iterations: 4

ϕϕϕ=1/Dispersion1

Keiner dieser Werte ist jedoch identisch.

Liegt das daran, dass das einzige, was sich in beiden Methoden tatsächlich unterscheidet, das Schätzverfahren ist? Oder gibt es einen grundlegenderen Unterschied, den ich vermisse? Gibt es auch einen Grund, eine Methode der anderen vorzuziehen?


Es hört sich so an, als hätten Sie die fraktionelle logistische Regression wiederentdeckt ...
The Laconic

Antworten:


5

Sie haben Recht, dass die Mittelwert- und Varianzfunktionen dieselbe Form haben.

Dies legt nahe, dass in sehr großen Stichproben, solange Sie keine Beobachtungen haben, die wirklich nahe bei 1 oder 0 liegen, diese dazu neigen sollten, ziemlich ähnliche Antworten zu geben, da Beobachtungen in dieser Situation ähnliche relative Gewichte haben.

Bei kleineren Stichproben, bei denen sich einige der kontinuierlichen Proportionen den Grenzen nähern, können die Unterschiede jedoch größer werden, da sich die relativen Gewichte der beiden Ansätze unterscheiden. Wenn die Punkte, die unterschiedliche Gewichte erhalten, auch relativ einflussreich sind (extremer im x-Raum), können die Unterschiede in einigen Fällen erheblich werden.

Bei der Beta-Regression würden Sie über ML schätzen, und im Fall eines Quasibinom-Modells - mindestens eines, das in R geschätzt wird, notieren Sie diesen Kommentar in der Hilfe:

Die Quasibinom- und Quasipoisson-Familien unterscheiden sich von den Binomial- und Poisson-Familien nur dadurch, dass der Dispersionsparameter nicht auf eins festgelegt ist, sodass sie eine Überdispersion modellieren können. Für den Binomialfall siehe McCullagh und Nelder (1989, S. 124–8). Obwohl sie zeigen, dass es (unter bestimmten Einschränkungen) ein Modell gibt, dessen Varianz proportional zum Mittelwert ist, wie im Quasi-Binomial-Modell, ist zu beachten, dass glm in diesem Modell keine Schätzungen der maximalen Wahrscheinlichkeit berechnet. Das Verhalten von S ist näher an den Quasi-Varianten.

hii

Beachten Sie, dass die Betareg-Vignette am Ende von Abschnitt 2 einige Erläuterungen zum Zusammenhang zwischen diesen Modellen enthält.


Ich nehme an, mit "Stichproben" beziehen Sie sich auf Beobachtungen von Erfolgen und Misserfolgen? Meine DV "Ähnlichkeit" ist kein Anteil der Erfolge; Es ist die Kosinusähnlichkeit oder zwei sehr hochdimensionale Vektoren und wird zwischen 0 und 1 begrenzt, ohne dass ein Wert von 0 oder 1 möglich ist. Die Beta-Verteilung scheint für solche Daten eine vernünftige Wahl zu sein. Der Grund, warum ich an einer Übertragung auf glm interessiert bin, ist, dass ich auch einen zufälligen Effekt hinzufügen möchte, der in betareg nicht möglich ist. Ich versuche festzustellen, ob in einem Szenario wie meinem quasi mit mu (1-mu) im Wesentlichen dasselbe ist.
Andrew Milne

Ich meine Stichprobe im gewöhnlichen statistischen Sinne , aber ich meine definitiv keine Stichprobe von Zählungen. Ich meine eine Stichprobe kontinuierlicher Werte zwischen 0 und 1 (die im Allgemeinen Proportionen für die Beta-Regression sind). Wenn ich über das Modellieren von
Zählproportionen

Danke für die Klarstellung. Mir fehlt wahrscheinlich etwas Offensichtliches, aber mir ist nicht klar, warum die Stichprobengröße (im traditionellen Sinne, den Sie meinen) hier relevant ist oder warum Werte nahe 0 oder 1 im Beta-Ansatz im Vergleich zum Pseudo-GLM-Ansatz unterschiedlich behandelt würden. Können Sie etwas erläutern?
Andrew Milne

1
nn
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.