Vorhersageintervall für einen zukünftigen Anteil der Erfolge unter Binomialeinstellung


9

Angenommen, ich passe eine Binomialregression an und erhalte die Punktschätzungen und die Varianz-Kovarianz-Matrix der Regressionskoeffizienten. Dadurch kann ich ein CI für den erwarteten Anteil der Erfolge in einem zukünftigen Experiment erhalten, , aber ich benötige ein CI für den beobachteten Anteil. Es wurden einige verwandte Antworten veröffentlicht, darunter Simulation (nehme an, ich möchte das nicht tun) und ein Link zu Krishnamoorthya et al. (Der meine Frage nicht ganz beantwortet).p

Meine Argumentation lautet wie folgt: Wenn wir nur das Binomialmodell verwenden, müssen wir annehmen, dass aus der Normalverteilung (mit dem entsprechenden Wald-CI) abgetastet wird und es daher unmöglich ist, CI für den beobachteten Anteil in geschlossener Form zu erhalten. Wenn wir davon ausgehen, dass aus der Beta-Verteilung entnommen wird, sind die Dinge viel einfacher, da die Anzahl der Erfolge der Beta-Binomial-Verteilung folgt. Wir müssen davon ausgehen, dass die geschätzten Beta-Parameter und nicht unsicher sind .p α βppαβ

Es gibt drei Fragen:

1) Eine theoretische: Ist es in Ordnung, nur die Punktschätzungen der Beta-Parameter zu verwenden? Ich weiß das, um ein CI für zukünftige Beobachtungen in multipler linearer Regression zu konstruieren

Y=xβ+ϵ,ϵN(0,σ2)

Sie machen diese Fehlertermvarianz, . Ich gehe davon aus (korrigieren Sie mich, wenn ich falsch liege), dass die Rechtfertigung darin besteht, dass in der Praxis mit einer weitaus größeren Genauigkeit als die Regressionskoeffizienten geschätzt wird und wir nicht viel gewinnen, wenn wir versuchen, die Unsicherheit von . Gilt eine ähnliche Begründung für die geschätzten Beta-Parameter und ?σ 2 σ 2 α βσ2σ2σ2αβ

2) Welches Paket ist besser (R: gamlss-bb, betareg, aod?; Ich habe auch Zugriff auf SAS).

3) Gibt es angesichts der geschätzten Beta-Parameter eine (ungefähre) Abkürzung, um die Quantile (2,5%, 97,5%) für die Anzahl zukünftiger Erfolge oder, noch besser, für den Anteil zukünftiger Erfolge unter Beta-Binomial-Verteilung zu erhalten.


Auf Frage eins, ja, das ist eine gültige Sache, die Leute tun, es heißt Empirical Bayes: en.wikipedia.org/wiki/Empirical_Bayes_method
Paul

1
Ich denke nicht, dass die Verwendung der Methode XYZ zur Schätzung eines Modellparameters automatisch bedeuten kann, dass es in Ordnung ist, die Schätzunsicherheit zu ignorieren, wenn ein CI für eine zukünftige Beobachtung erstellt wird. Beispielsweise verwenden sie bei multipler linearer Regression OLS anstelle von EB, und die Unsicherheit in wird ebenso ignoriert. Warum das? Außerdem schlägt dieser Wiki-Artikel niemals vor, dass in EB die Genauigkeit der Schätzung von Hyperparametern der obersten Ebene normalerweise so viel höher ist, dass es in Ordnung ist, sie für praktische Zwecke als fest zu betrachten. σ
James

1
p(ηy)p(θy)ηη

2
Gute Frage! Sie können keinen Pivot erhalten, aber was ist mit der Verwendung der Profilwahrscheinlichkeit? Siehe Welche nicht-Bayes'schen Methoden gibt es für prädiktive Inferenz? .
Scortchi

Antworten:


1

Ich werde alle 3 Teile auf die Frage ansprechen.

Es gibt zwei miteinander verbundene Probleme: Erstens die Methode, mit der Sie in diesem Fall ein Regressionsmodell anpassen. Die zweite Möglichkeit besteht darin, Schätzungen von Ihren Schätzungen zu trennen, um eine neue Schätzung vorherzusagen.

Wenn Ihre Antwortvariablen binomial verteilt sind, verwenden Sie normalerweise entweder eine logistische Regression oder eine Probit-Regression (glm mit normalem cdf als Verknüpfungsfunktion).

yi/ni

x<- rnorm(100, sd=2)
prob_true <- 1/(1+exp(-(1+5*x)))
counts <- rbinom(100, 50,prob_true)
print(d.AD <- data.frame(counts,x))
glm.D93 <- glm(counts/50 ~ x, family = binomial() )

Für ein lineares Regressionsmodell lautet die Formel für ein Vorhersageintervall:

y^i±tnpsy1+1n+(xix¯)2(n1)sx2

Sie können das lineare Regressionsmodell als Näherung für das glm verwenden. Dazu würden Sie eine lineare Regressionsformel für die lineare Kombination von Prädiktoren verwenden, bevor Sie die inverse Link-Transformation durchführen, um die Wahrscheinlichkeiten wieder auf die 0-1-Skala zu bringen. Der Code dazu wird in die Funktion pred.glm () R eingebrannt. Hier ist ein Beispielcode, der auch eine schöne Handlung ergibt. ( BEARBEITEN : Dieser Code gilt für das Konfidenzintervall, nicht für das Vorhersageintervall.)

y_hat <- predict(glm.D93, type="link", se.fit=TRUE)
t_np<- qt(.975, 100-2, ncp=0)

ub <- y_hat$fit + t_np * y_hat$se.fit
lb <- y_hat$fit - t_np * y_hat$se.fit

point <- y_hat$fit

p_hat <- glm.D93$family$linkinv(point)
p_hat_lb <- glm.D93$family$linkinv(lb)
p_hat_ub <- glm.D93$family$linkinv(ub)

plot(x,p_hat)
points(x, p_hat_ub, col='red')
points(x, p_hat_lb, col='blue')

Sie können dasselbe für jedes glm tun, z. B. Poisson, inverses Gauß, Gamma usw. Führen Sie jeweils das Vorhersageintervall auf der Skala der linearen Kombination der Prädiktoren aus. Nachdem Sie die beiden Endpunkte des Vorhersageintervalls erhalten haben, konvertieren Sie diese Endpunkte über den inversen Link. Für jeden der von mir erwähnten Glms kann der inverse Link anders sein als der Logit-Fall, den ich hier geschrieben habe. Hoffe das hilft.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.