Cox-Proportional-Hazard-Modell und nicht zufällig ausgewählte Stichprobe


9

Gibt es Methoden zur Korrektur von Verzerrungen im Cox-Proportional-Hazard-Modell, die durch nicht zufällig ausgewählte Stichproben verursacht werden (so etwas wie Heckmans Korrektur)?

Hintergrund :
Nehmen wir an, die Situation sieht wie folgt aus:
- In den ersten zwei Jahren werden alle Kunden akzeptiert.
- Nach diesen zwei Jahren wird ein Cox PH-Modell gebaut. Das Modell sagt voraus, wie lange Kunden unseren Service nutzen werden.
- Aufgrund der Richtlinien des Unternehmens werden von nun an nur noch Kunden mit einer Überlebenswahrscheinlichkeit von mehr als 0,5 Monaten akzeptiert, die anderen werden abgelehnt.
- Nach weiteren zwei Jahren muss ein neues Modell gebaut werden. Das Problem ist, dass wir nur ein Ziel für akzeptierte Kunden haben und die Verwendung nur dieser Kunden zu ernsthaften Verzerrungen führen kann.


1
Was ist der Sinn dieser Analyse? Ein Cox-PH-Modell sagt die Ausfallzeit nur dann explizit voraus, wenn Sie einige Glättungsmethoden oder parametrische Modelle einbeziehen. Welche Schichtungs- / Anpassungsvariablen enthält dieses Modell?
AdamO

Antworten:


4

Das Problem bei der Berechnung parametrischer Ansätze mit dem semiparametrischen Cox-Modell besteht darin, dass dieses spezifische Problem tatsächlich mit fehlenden Daten zusammenhängt. Trotzdem hat der Autor nicht beschrieben, wie er absolute Risikoprognosen aus einem Cox-Modell erhält, da wir eine solche Risikoprognose haben, die auf Modellparametern (und Schätzungen der Basis-Hazard-Funktion) basiert, der Einschlusswahrscheinlichkeit in der zweiten Datenphase Die Erfassung hängt von der ursprünglichen Risikoprognose ab, sodass das Fehlen von beobachteten Variablen abhängt, dh von zufälligen Daten.
AdamO

2

Die einfache Antwort lautet Gewichtung. Das heißt, Sie können Gewichte verwenden, um Gruppen in der "akzeptierten" Gruppe für die interessierende Population zu standardisieren. Das Problem, das sich aus der Verwendung solcher Gewichte in einer gepoolten Analyse sowohl in der ersten als auch in der zweiten 2-Jahres-Phase ergibt, besteht darin, dass die geschätzten Populationsgewichte und die Parameter nun abhängig sind. Der Pseudolikelihood-Ansatz wird normalerweise verwendet (in diesem Fall handelt es sich um eine Art Pseudo-Partial-Likelihood), bei dem Sie die Abhängigkeit zwischen Stichprobengewichten und Parameterschätzungen ignorieren. Unter vielen praktischen Umständen (und dies ist nicht anders) ist es jedoch erforderlich, diese Abhängigkeit zu berücksichtigen. Das Problem der Erstellung eines effizienten Schätzers für die Gefährdungsquoten ist schwierig und meines Wissens offen.

Verbesserte Horvitz-Thompson-Schätzung von Modellparametern aus zweiphasigen geschichteten Proben: Anwendungen in der Epidemiologie .

Der Artikel beschreibt Umfragemethoden, die normalerweise in der logistischen Regression angewendet werden. Sie können jedoch auch Überlebensdaten gewichten. Einige wichtige Überlegungen, die Sie nicht erwähnt haben, sind, ob Sie daran interessiert sind, eine Vorhersage zu erstellen, die für die gesamte Bevölkerung oder für die "qualifizierte" Bevölkerung auf der Grundlage der 2-Jahres-Schätzungen oder für die "qualifizierende" Bevölkerung auf der Grundlage der daraus resultierenden Ergebnisse gilt Modell. Sie haben auch nicht genau erwähnt, wie ein solches "Vorhersage" -Modell aus einem Cox-Modell erstellt wird, da angepasste Werte aus einem Cox-Modell nicht als Risiko interpretiert werden können. Ich gehe davon aus, dass Sie die Gefährdungsquoten schätzen und dann eine geglättete Schätzung der Grundgefährdungsfunktion erhalten.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.