Negative binomische Regressionsfrage - ist es ein schlechtes Modell?


31

Ich lese einen sehr interessanten Artikel von Sellers und Shmueli über Regressionsmodelle für Zähldaten. Am Anfang (S. 944) wird auf McCullaugh und Nelder (1989) verwiesen , wonach eine negative binomische Regression unpopulär ist und einen problematischen kanonischen Zusammenhang aufweist. Ich habe die betreffende Passage gefunden und sie lautet (S. 374 von M und N)

"Von der negativen Binomialverteilung scheint in Anwendungen wenig Gebrauch gemacht worden zu sein; insbesondere ist die Verwendung der kanonischen Verknüpfung problematisch, weil sie den linearen Prädiktor zu einer Funktion eines Parameters der Varianzfunktion macht."

Auf der vorherigen Seite geben sie diese Linkfunktion als

η=Log(α1+α)=Log(μμ+k)

und Varianzfunktion

V=μ+μ2k.

Die Verteilung ist gegeben als

Pr(Y.=y;α,k)=(y+k-1)!y!(k-1)!αy(1+α)y=k

Ich habe festgestellt, dass die NB-Regression ziemlich weit verbreitet ist (und in mehreren Büchern empfohlen wird). Sind all diese Verwendungen und Empfehlungen fehlerhaft?

Was sind die Konsequenzen dieser problematischen Verknüpfung?


3
Vermutlich hat dies zumindest teilweise damit zu tun, dass das Zitat dem Jahr 1989 zugeschrieben wird. Ich bin bereit zu wetten, dass die meisten aktuellen Verwendungen des NB jünger sind. Das NB-Modell ist in der Regel sehr nützlich, wenn Sie mit Problemen der Überdispersion im üblichen Fall der binomialen Wahrscheinlichkeit (dh logistischen Regression) zu tun haben.

5
Ich bin im Detail trüb (und weit davon entfernt, ein Anfänger zu sein, wenn es um den NegBin geht), aber erinnere mich, dass Joseph Hilbe dies in seinem Buch Negative Binomial Regression (2nd Edition) besprochen hat. Er kommentiert auf S.9, dass ein natürlicher Ausdruck der Poisson-Gamma-Mischungsansicht des NegBin ist. Nach ihrem 1989 erschienenen Buch entwickelte Nelder das kk- Makro für GenStat, in dem er eine direkte Beziehung zwischen und mit der Varianz favorisiert und das sich diese direkte Parametrisierung als sehr beliebt erwiesen hat vor kurzem. Vαμ2V=μ+αμ2
Wiedereinsetzung von Monica - G. Simpson

3
Ich würde diese Kommentare mit einem Körnchen Salz nehmen. Zu MN: Sie hatten eine sehr strenge Definition von GLM (aus guten Gründen, denke ich). Negbin-Modelle mit unbekannten Formparametern halten sich nicht an die sehr strenge Definition von GLM von McCullagh, Nelder, Pregibon usw. Technisch ist es also nicht in allen Anwendungsfällen ein GLM. Als etwas andere Modellklasse interpretiert und über die maximale Wahrscheinlichkeit geschätzt, gibt es keine Probleme mehr. Re S & S brauchte einen Fall, um das COM Poisson zu motivieren, daher war das Zitat von M & N hilfreich.
Momo

4
Ich verstehe nicht, warum die angeblich schlechten Eigenschaften des kanonischen Links das Negbin-Modell insgesamt unerwünscht machen. Sie wählen Ihre Verknüpfungsfunktion anhand der Daten und des Problems, das Sie lösen möchten, und nicht anhand der mathematischen Theorie. Tatsächlich bezweifle ich, dass jemand den kanonischen Link benutzt. Es ist eine ähnliche Geschichte wie bei Gamma-GLMs. Die kanonische Verknüpfung ist die Umkehrung, aber ich wette, dass aufgrund der einfachen Interpretation und der natürlichen Anwendung auf viele Situationen weit mehr Menschen eine Protokollverknüpfung verwenden.
Hong Ooi

4
Soweit ich das beurteilen kann, gibt es so gut wie keinen Grund, das negative Binomialmodell zu verwenden. Selbst wenn Ihre Daten wirklich durch ein negatives Binomialmodell generiert wurden, liefert die Poisson-Regression konsistente Schätzer für die Auswirkungen der unabhängigen Variablen auf die mittlere Antwort - und dies ist praktisch immer das, was der Forscher schätzen möchte. Die üblichen Standardfehler sind falsch, wenn die Poisson-Annahme falsch ist, aber Bootstrapping behebt das. Jedes Mal, wenn , können Sie mit Poisson konsistent schätzen . E{Y.|X}=exp(Xβ)β
Bill

Antworten:


10

Ich bestreite die Behauptungen aus mehreren Gesichtspunkten:

i) Auch wenn die kanonische Verknüpfung durchaus "problematisch" sein mag, ist es nicht sofort offensichtlich, dass sich jemand für diese Verknüpfung interessiert - wohingegen beispielsweise die log-Verknüpfung im Poisson häufig sowohl praktisch als auch natürlich ist, und dies häufig der Fall ist daran interessiert. Trotzdem schauen sich die Leute im Fall Poisson andere Link-Funktionen an.

Wir brauchen uns also nicht auf den kanonischen Link zu beschränken.

Ein „problematischer Zusammenhang“ ist an sich kein besonders aussagekräftiges Argument gegen eine negative binomische Regression.

Die Protokollverknüpfung scheint zum Beispiel in einigen negativen Binomialanwendungen eine vernünftige Wahl zu sein, zum Beispiel in den Fällen, in denen die Daten bedingt Poisson sind, die Poisson-Rate jedoch heterogen ist - die Protokollverknüpfung kann fast genauso interpretierbar sein wie es im Poisson-Fall ist.

Im Vergleich dazu verwende ich Gamma-GLMs ziemlich oft, aber ich kann mich nicht erinnern (abgesehen von Lehrbuchbeispielen), jemals seinen kanonischen Link verwendet zu haben - ich verwende fast immer den log-Link, da es ein natürlicherer Link für die Arten von Problemen ist Ich neige dazu, mit zu arbeiten.

ii) "Wenig scheint gemacht worden zu sein ... in Bewerbungen" mag 1989 so gut wie wahr gewesen sein, aber ich glaube nicht, dass es jetzt so ist. [Auch wenn es jetzt so ist, ist das kein Argument dafür, dass es ein schlechtes Modell ist, nur, dass es nicht weit verbreitet ist - was aus allen möglichen Gründen passieren könnte.]

Negative binomische Regression wird immer häufiger eingesetzt, da sie immer häufiger zur Verfügung steht, und ich sehe, dass sie jetzt viel häufiger in Anwendungen eingesetzt wird. In R beispielsweise verwende ich die Funktionen MASS, die dies unterstützen (und das entsprechende Buch, Modern Applied Statistics with S von Venables und Ripley , verwendet in einigen interessanten Anwendungen eine negative binomische Regression) - und ich habe einige Funktionen verwendet in ein paar anderen Paketen, noch bevor ich es in R verwendet habe.

Ich hätte die negative binomische Regression noch früher verwendet, wenn sie mir ohne weiteres zur Verfügung gestanden hätte. Ich gehe davon aus, dass dies auch für viele Menschen zutrifft. Das Argument, dass es wenig genutzt wurde, scheint eher eine Chance zu sein.

Während es möglich ist, eine negative binomiale Regression (z. B. durch die Verwendung von überdispersen Poisson-Modellen) oder eine Reihe von Situationen zu vermeiden, in denen es nicht wirklich darauf ankommt, was Sie tun , gibt es verschiedene Gründe, warum dies nicht ganz zufriedenstellend ist.

Wenn ich mich zum Beispiel mehr für Vorhersageintervalle als für Schätzungen von Koeffizienten interessiere, ist die Tatsache, dass sich die Koeffizienten nicht ändern, möglicherweise kein ausreichender Grund, das negative Binom zu vermeiden.

Natürlich gibt es noch andere Möglichkeiten, die die Dispersion modellieren (wie das Conway-Maxwell-Poisson, das Gegenstand des von Ihnen erwähnten Papiers ist); Das sind sicherlich Optionen, aber es gibt Situationen, in denen ich ziemlich froh bin, dass das negative Binomial einigermaßen gut als Modell für mein Problem passt.

Sind all diese Verwendungen und Empfehlungen fehlerhaft?

Das glaube ich wirklich nicht! Wenn dies der Fall wäre, hätte es inzwischen einigermaßen klar sein müssen. In der Tat hatten McCullagh und Nelder, wenn sie sich weiterhin ähnlich gefühlt hätten, weder einen Mangel an Gelegenheiten noch an Foren, um die verbleibenden Fragen zu klären. Nelder ist verstorben (2010), aber McCullagh ist offenbar immer noch in der Nähe .

Wenn diese kurze Passage in McCullagh und Nelder alles ist, was sie haben, würde ich sagen, dass das ein ziemlich schwaches Argument ist.

Was sind die Konsequenzen dieser problematischen Verknüpfung?

Ich denke, dass das Problem hauptsächlich darin besteht, dass die Varianzfunktion und die Verknüpfungsfunktion miteinander in Beziehung stehen und nicht miteinander in Beziehung stehen (wie dies bei so ziemlich allen anderen gängigen GLM-Familien der Fall ist), wodurch die Interpretation auf der Skala des linearen Prädiktors erfolgt weniger einfach (das heißt nicht, dass es das einzige Problem ist; ich denke, es ist das Hauptproblem für einen Praktizierenden). Es ist keine große Sache.


p

Nichts davon soll Conway-Maxwell-Poisson-Modelle (das Thema des Sellers- und Shmueli-Papiers), die ebenfalls immer häufiger verwendet werden , entziehen - ich möchte auf keinen Fall an einem negativen Binomial gegen COM teilnehmen -Poisson-Schießspiel.

Ich sehe es einfach nicht als das eine oder das andere, genauso wenig wie ich (jetzt allgemeiner gesprochen) eine rein bayesianische oder rein frequentistische Haltung zu statistischen Problemen einnehme. Ich werde das verwenden, was mir unter den jeweiligen Umständen am besten gefällt, und jede Wahl hat in der Regel Vor- und Nachteile.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.