Sollte die Stichprobe für die logistische Regression das tatsächliche Verhältnis von Einsen und Nullen widerspiegeln?


23

Angenommen, ich möchte ein logistisches Regressionsmodell erstellen, das die Wahrscheinlichkeit des Auftretens einiger auf Bäumen lebender Tierarten basierend auf den Eigenschaften von Bäumen (z. B. der Höhe) abschätzen kann. Wie immer ist meine Zeit und mein Geld begrenzt, daher kann ich nur eine begrenzte Stichprobengröße sammeln.

Ich habe folgende Fragen: Sollte das Verhältnis von Einsen und Nullen in meiner Stichprobe das wahre Verhältnis von Einsen und Nullen widerspiegeln? (zumindest annähernd) Mir ist aufgefallen, dass es gängige Praxis ist , ein logistisches Regressionsmodell mit einer ausgewogenen Stichprobe (gleiche Anzahl von Einsen und Nullen) durchzuführen - aber solche Modelle bieten eine surrealistisch hohe Eintrittswahrscheinlichkeit - richtig?

Gibt es Artikel / Lehrbücher, mit denen ich die Vorstellung ** stützen kann , dass die Modelle, die nicht das wahre Verhältnis von Einsen und Nullen widerspiegeln, " falsch " sind? **

Und schließlich: Ist es möglich, eine 1: 1-Abtastung durchzuführen und anschließend das Modell mit Tau nach Imai et al. Zu korrigieren ? 2007?

Kosuke Imai, Gary King und Olivia Lau. 2007. „relogit: Logistische Regression seltener Ereignisse für dichotome abhängige Variablen“ in Kosuke Imai, Gary King und Olivia Lau, „Zelig: Jedermanns statistische Software“, http: //gking.harvard.edu/zelig.

Bildbeschreibung hier eingeben

Punkte stehen für Bäume (rot = besetzt, grau = unbesetzt). Ich kann alle belegten Bäume mit einer Genauigkeit von 100% (1) identifizieren, aber ich kann nicht alle Bäume im Wald messen. Das Modell ist für jede Stichprobenstrategie (Verhältnis) unterschiedlich.

Antworten:


15

Wenn das Ziel eines solchen Modells die Vorhersage ist, können Sie keine ungewichtete logistische Regression verwenden, um die Ergebnisse vorherzusagen: Sie werden das Risiko überbewerten. Die Stärke logistischer Modelle besteht darin, dass die Odds Ratio (OR) - die "Steigung", die die Assoziation zwischen einem Risikofaktor und einem binären Ergebnis in einem logistischen Modell misst - für die ergebnisabhängige Stichprobe nicht relevant ist. Wenn also Fälle in einem Verhältnis von 10: 1, 5: 1, 1: 1, 5: 1, 10: 1 zu Kontrollen abgetastet werden, spielt es einfach keine Rolle: Der OR bleibt in beiden Szenarien unverändert, solange die Probenahme ohne Bedingungen erfolgt auf die Belichtung (die Berkson Voreingenommenheit einführen würde). In der Tat ist die ergebnisabhängige Stichprobe ein kostensparendes Unterfangen, wenn eine vollständige, einfache Zufallsstichprobe nicht möglich ist.

Warum werden Risikovorhersagen durch ergebnisabhängige Stichproben mithilfe logistischer Modelle verzerrt? Die ergebnisabhängige Stichprobe wirkt sich auf den Achsenabschnitt in einem Logistikmodell aus. Dies bewirkt, dass die S-förmige Assoziationskurve um den Unterschied in der logarithmischen Wahrscheinlichkeit, einen Fall in einer einfachen Zufallsstichprobe in der Grundgesamtheit abzutasten, und der logarithmischen Wahrscheinlichkeit, einen Fall in einem Pseudo abzutasten, "die x-Achse nach oben rutscht" -Bevölkerung Ihres experimentellen Designs. (Wenn Sie also 1: 1 Fälle kontrollieren müssen, besteht eine 50% ige Chance, einen Fall in dieser Pseudopopulation zu untersuchen.) In seltenen Fällen ist dies ein ziemlich großer Unterschied, ein Faktor von 2 oder 3.

Wenn Sie davon sprechen, dass solche Modelle "falsch" sind, müssen Sie sich darauf konzentrieren, ob das Ziel Folgerung (richtig) oder Vorhersage (falsch) ist. Dies betrifft auch das Verhältnis von Ergebnissen zu Fällen. Die Sprache, die Sie in der Regel um dieses Thema herum sehen, ist die, eine solche Studie als "Fallkontrollstudie" zu bezeichnen, über die bereits ausführlich geschrieben wurde. Vielleicht ist meine Lieblingspublikation zu diesem Thema Breslow und Day, die als wegweisende Studie Risikofaktoren für seltene Krebsursachen charakterisierte (bisher aufgrund der Seltenheit der Ereignisse nicht realisierbar). Fallkontrollstudien werfen einige Kontroversen über die häufige Fehlinterpretation von Befunden auf: insbesondere die Verknüpfung des OP mit dem RR (übertriebener Befund) und auch die "Studienbasis" als Vermittler der Stichprobe und der befundsteigernden Population.bietet eine hervorragende Kritik an ihnen. Keine Kritik hat jedoch behauptet, Fall-Kontroll-Studien seien von Natur aus ungültig. Ich meine, wie könnten Sie das? Sie haben die öffentliche Gesundheit auf unzähligen Wegen gefördert. Der Artikel von Miettenen weist darauf hin, dass Sie in ergebnisabhängigen Stichproben sogar relative Risikomodelle oder andere Modelle verwenden und die Diskrepanzen zwischen den Ergebnissen und den Ergebnissen auf Populationsebene in den meisten Fällen beschreiben können: Es ist nicht wirklich schlimmer, da der OP in der Regel ein harter Parameter ist interpretieren.

Der wahrscheinlich beste und einfachste Weg, die Verzerrung durch Überabtastung bei Risikovorhersagen zu überwinden, ist die Verwendung der gewichteten Wahrscheinlichkeit. Scott und Wild diskutieren die Gewichtung und zeigen, dass sie den Intercept-Term und die Risikovorhersagen des Modells korrigiert. Dies ist der beste Ansatz, wenn a priori Kenntnisse über den Anteil der Fälle in der Bevölkerung vorliegen. Wenn die Prävalenz des Ergebnisses tatsächlich 1: 100 beträgt und Sie Fälle 1: 1 anhand von Kontrollen untersuchen, gewichten Sie die Kontrollen einfach mit einer Größenordnung von 100, um bevölkerungskonsistente Parameter und unvoreingenommene Risikovorhersagen zu erhalten. Der Nachteil dieser Methode ist, dass Unsicherheiten in der Bevölkerungsprävalenz nicht berücksichtigt werden, wenn sie an anderer Stelle fehlerhaft geschätzt wurden. Dies ist ein riesiges Gebiet der offenen Forschung, Lumley und Breslowkam mit einer Theorie über Zweiphasenabtastung und den doppelt robusten Schätzer sehr weit. Ich finde es unglaublich interessant. Zeligs Programm scheint einfach eine Implementierung der Gewichtungsfunktion zu sein (die etwas redundant zu sein scheint, da die glm-Funktion von R Gewichtungen zulässt).


(+1) Ist eine vorherige Korrektur erwähnenswert, da dies der einfachste Weg ist, den Achsenabschnitt für eine einfache Fall-Kontroll-Abtastung anzupassen?
Scortchi

@Scortchi Meinst du Bayesianische logistische Regression mit einem informativen Vorgänger beim Abfangen? Oder eingeschränkte Optimierung? Ich bin nicht wirklich mit dem vertraut, was das sein könnte.
AdamO

1
Nur die einfache Berechnung hier: stats.stackexchange.com/a/68726/17230 . (Ich bin mir jetzt nicht ganz sicher, wo ich diese Terminologie aufgegriffen habe oder wie sie ist.) Ich habe gehört, dass die Gewichtung bei falsch spezifizierten Modellen besser funktioniert.
Scortchi

@Scortchi Ah, das wäre ziemlich einfach! Es sollte für die Vorhersage in Ordnung sein, solange keine Fehlerschätzungen erforderlich sind. Durch die Gewichtung erhalten Sie eine andere SE für den Achsenabschnitt und die Steigung, diese Methode hat jedoch keine Auswirkungen.
AdamO
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.