Ich bestreite die Behauptungen aus mehreren Gesichtspunkten:
i) Auch wenn die kanonische Verknüpfung durchaus "problematisch" sein mag, ist es nicht sofort offensichtlich, dass sich jemand für diese Verknüpfung interessiert - wohingegen beispielsweise die log-Verknüpfung im Poisson häufig sowohl praktisch als auch natürlich ist, und dies häufig der Fall ist daran interessiert. Trotzdem schauen sich die Leute im Fall Poisson andere Link-Funktionen an.
Wir brauchen uns also nicht auf den kanonischen Link zu beschränken.
Ein „problematischer Zusammenhang“ ist an sich kein besonders aussagekräftiges Argument gegen eine negative binomische Regression.
Die Protokollverknüpfung scheint zum Beispiel in einigen negativen Binomialanwendungen eine vernünftige Wahl zu sein, zum Beispiel in den Fällen, in denen die Daten bedingt Poisson sind, die Poisson-Rate jedoch heterogen ist - die Protokollverknüpfung kann fast genauso interpretierbar sein wie es im Poisson-Fall ist.
Im Vergleich dazu verwende ich Gamma-GLMs ziemlich oft, aber ich kann mich nicht erinnern (abgesehen von Lehrbuchbeispielen), jemals seinen kanonischen Link verwendet zu haben - ich verwende fast immer den log-Link, da es ein natürlicherer Link für die Arten von Problemen ist Ich neige dazu, mit zu arbeiten.
ii) "Wenig scheint gemacht worden zu sein ... in Bewerbungen" mag 1989 so gut wie wahr gewesen sein, aber ich glaube nicht, dass es jetzt so ist. [Auch wenn es jetzt so ist, ist das kein Argument dafür, dass es ein schlechtes Modell ist, nur, dass es nicht weit verbreitet ist - was aus allen möglichen Gründen passieren könnte.]
Negative binomische Regression wird immer häufiger eingesetzt, da sie immer häufiger zur Verfügung steht, und ich sehe, dass sie jetzt viel häufiger in Anwendungen eingesetzt wird. In R beispielsweise verwende ich die Funktionen MASS
, die dies unterstützen (und das entsprechende Buch, Modern Applied Statistics with S von Venables und Ripley , verwendet in einigen interessanten Anwendungen eine negative binomische Regression) - und ich habe einige Funktionen verwendet in ein paar anderen Paketen, noch bevor ich es in R verwendet habe.
Ich hätte die negative binomische Regression noch früher verwendet, wenn sie mir ohne weiteres zur Verfügung gestanden hätte. Ich gehe davon aus, dass dies auch für viele Menschen zutrifft. Das Argument, dass es wenig genutzt wurde, scheint eher eine Chance zu sein.
Während es möglich ist, eine negative binomiale Regression (z. B. durch die Verwendung von überdispersen Poisson-Modellen) oder eine Reihe von Situationen zu vermeiden, in denen es nicht wirklich darauf ankommt, was Sie tun , gibt es verschiedene Gründe, warum dies nicht ganz zufriedenstellend ist.
Wenn ich mich zum Beispiel mehr für Vorhersageintervalle als für Schätzungen von Koeffizienten interessiere, ist die Tatsache, dass sich die Koeffizienten nicht ändern, möglicherweise kein ausreichender Grund, das negative Binom zu vermeiden.
Natürlich gibt es noch andere Möglichkeiten, die die Dispersion modellieren (wie das Conway-Maxwell-Poisson, das Gegenstand des von Ihnen erwähnten Papiers ist); Das sind sicherlich Optionen, aber es gibt Situationen, in denen ich ziemlich froh bin, dass das negative Binomial einigermaßen gut als Modell für mein Problem passt.
Sind all diese Verwendungen und Empfehlungen fehlerhaft?
Das glaube ich wirklich nicht! Wenn dies der Fall wäre, hätte es inzwischen einigermaßen klar sein müssen. In der Tat hatten McCullagh und Nelder, wenn sie sich weiterhin ähnlich gefühlt hätten, weder einen Mangel an Gelegenheiten noch an Foren, um die verbleibenden Fragen zu klären. Nelder ist verstorben (2010), aber McCullagh ist offenbar immer noch in der Nähe .
Wenn diese kurze Passage in McCullagh und Nelder alles ist, was sie haben, würde ich sagen, dass das ein ziemlich schwaches Argument ist.
Was sind die Konsequenzen dieser problematischen Verknüpfung?
Ich denke, dass das Problem hauptsächlich darin besteht, dass die Varianzfunktion und die Verknüpfungsfunktion miteinander in Beziehung stehen und nicht miteinander in Beziehung stehen (wie dies bei so ziemlich allen anderen gängigen GLM-Familien der Fall ist), wodurch die Interpretation auf der Skala des linearen Prädiktors erfolgt weniger einfach (das heißt nicht, dass es das einzige Problem ist; ich denke, es ist das Hauptproblem für einen Praktizierenden). Es ist keine große Sache.
p
Nichts davon soll Conway-Maxwell-Poisson-Modelle (das Thema des Sellers- und Shmueli-Papiers), die ebenfalls immer häufiger verwendet werden , entziehen - ich möchte auf keinen Fall an einem negativen Binomial gegen COM teilnehmen -Poisson-Schießspiel.
Ich sehe es einfach nicht als das eine oder das andere, genauso wenig wie ich (jetzt allgemeiner gesprochen) eine rein bayesianische oder rein frequentistische Haltung zu statistischen Problemen einnehme. Ich werde das verwenden, was mir unter den jeweiligen Umständen am besten gefällt, und jede Wahl hat in der Regel Vor- und Nachteile.