Inwiefern unterscheiden sich Neigungsbewertungen von der Addition von Kovariaten in einer Regression, und wann werden sie letzteren vorgezogen?


41

Ich gebe zu, dass ich in Bezug auf Neigungsbewertungen und Kausalanalysen relativ neu bin.

Eine Sache, die mir als Neuling nicht klar ist, ist, wie sich das "Ausbalancieren" unter Verwendung von Neigungsbewertungen mathematisch von dem unterscheidet, was passiert, wenn wir Kovariaten in einer Regression hinzufügen? Was ist anders an der Operation und warum ist sie besser (oder besser) als das Hinzufügen von Subpopulations-Kovariaten in einer Regression?

Ich habe einige Studien gesehen, die einen empirischen Vergleich der Methoden durchführen, aber ich habe keine gute Diskussion gesehen, die die mathematischen Eigenschaften der beiden Methoden in Beziehung setzt und warum sich PSM für kausale Interpretationen eignet, Regressionskovariaten jedoch nicht. Es scheint auch viel Verwirrung und Kontroverse auf diesem Gebiet zu geben, was es noch schwieriger macht, die Dinge aufzugreifen.

Irgendwelche Gedanken dazu oder irgendwelche Hinweise auf gute Ressourcen / Papiere, um den Unterschied besser zu verstehen? (Ich gehe langsam das Kausalitätsbuch von Judea Pearl durch, also muss ich nicht darauf hinweisen.)


3
Ich empfehle Ihnen, Morgan and Winship, 2007 zu lesen . In den Kapiteln 4 und 5 werden Regression und Matching für die Identifizierung von Kausaleffekten explizit verglichen und gegenübergestellt.
Conjugateprior

1
Wenn Sie die Bilanzstatistik überprüfen, stellen Sie sicher, dass keine Extrapolation zwischen den Behandlungsgruppen erfolgt, die Sie in Bezug auf den mehrdimensionalen Kovariatenraum vergleichen. Die Regression wird einfach extrapoliert, ohne dies zu überprüfen, sodass Extrapolationen schlechte Vorhersagen liefern können.
StatsStudent

Antworten:


17

Ein großer Unterschied besteht darin, dass die Regression diese Merkmale linear "steuert". Die Übereinstimmung nach Neigungswerten beseitigt die Linearitätsannahme, aber da einige Beobachtungen möglicherweise nicht übereinstimmen, können Sie möglicherweise nichts über bestimmte Gruppen aussagen.

Wenn Sie beispielsweise ein Arbeiterausbildungsprogramm absolvieren, sind möglicherweise alle Teilnehmer Männer, aber die nicht teilnehmende Kontrollbevölkerung setzt sich aus Männern und Frauen zusammen. Mit Hilfe der Regression können Sie beispielsweise das Einkommen einer Beteiligungsindikatorvariablen und eines männlichen Indikators zurückführen. Sie würden alle Ihre Daten verwenden und könnten das Einkommen einer Frau schätzen, wenn sie an dem Programm teilgenommen hätte.

Wenn Sie Matching machten, konnten Sie nur Männer mit Männern vergleichen. Infolgedessen würden Sie in Ihrer Analyse keine Frauen verwenden und Ihre Ergebnisse würden sich nicht auf sie beziehen.

Regression kann unter Verwendung der Linearitätsannahme extrapoliert werden, Matching jedoch nicht. Alle anderen Annahmen stimmen im Wesentlichen zwischen Regression und Matching überein. Der Vorteil des Matchings gegenüber der Regression besteht darin, dass es nicht parametrisch ist (außer Sie müssen davon ausgehen, dass Sie den richtigen Neigungswert haben, wenn Sie das Matching auf diese Weise durchführen).

Weitere Informationen finden Sie auf meiner Seite hier zu einem Kurs, der sich stark auf Matching-Methoden konzentriert. Siehe insbesondere Annahmen zur Abschätzung der Kausaleffekte .

Auch sicher sein , die zu überprüfen , Rosenbaum und Rubin (1983) Artikel , dass Umrisse Propensity Score Matching.

Schließlich hat das Matching seit 1983 einen langen Weg zurückgelegt. Auf Jas Sekhons Webseite erfahren Sie mehr über seinen genetischen Matching-Algorithmus.


3
Vielleicht liegt es daran, dass ich kein Statistiker bin, aber wenn es so aussieht, als hätten Sie eine lineare Regression angenommen, als das OP nach der Regression im Allgemeinen gefragt hat. Ich denke jedoch, dass das Hinzufügen von Kovariaten zu jeder Art von Regressor einige Annahmen über den Eingaberaum macht, damit er auf neue Beispiele extrapoliert werden kann, und Matching ist vorsichtiger bei der Extrapolation von Dingen.
Rrenaud

2
Sie machen einige Annahmen über die funktionale Form der Störgrößen, wenn Sie die Propensitätsfunktion schätzen. Sie stimmen anschließend auch mit Personen überein, die "nahe" an der Neigung liegen, sodass ich nicht sofort davon ausgehen würde, dass die Neigungsanpassung das Problem nichtlinearer Störfaktoren löst.
AdamO

2
Die Links sind kaputt.
Carlos Cinelli

11

Die kurze Antwort lautet, dass die Neigungsbewertungen nicht besser sind als das entsprechende ANCOVA-Modell, insbesondere in Bezug auf die kausale Interpretation.

Propensity Scores werden am besten als Datenreduktionsmethode verstanden. Sie sind ein wirksames Mittel, um viele Kovariaten in eine einzige Bewertung zu reduzieren, mit der ein interessierender Effekt für eine Reihe von Variablen angepasst werden kann. Auf diese Weise sparen Sie Freiheitsgrade, indem Sie anstelle mehrerer Kovariaten nur einen Neigungswert einstellen. Dies ist sicherlich ein statistischer Vorteil, aber nicht mehr.

Eine Frage, die sich bei der Verwendung der Regressionsanpassung mit Neigungsbewertungen stellen kann, ist, ob die Verwendung der Neigungsbewertung einen Gewinn bringt, anstatt eine Regressionsanpassung mit allen Kovariaten durchzuführen, die zur Schätzung der im Modell enthaltenen Neigungsbewertung verwendet werden. Rosenbaum und Rubin zeigten, dass die "Punktschätzung des Behandlungseffekts aus einer Analyse der Kovarianzanpassung für multivariates X gleich der Schätzung ist, die aus einer univariaten Kovarianzanpassung für die auf X basierende lineare Diskriminante der Probe erhalten wird, wenn dieselbe Probenkovarianzmatrix verwendet wird sowohl für die Kovarianzanpassung als auch für die Diskriminanzanalyse ". Daher sollten die Ergebnisse beider Methoden zu den gleichen Schlussfolgerungen führen. Jedoch, Ein Vorteil der zweistufigen Prozedur besteht darin, dass man ein sehr kompliziertes Propensity-Score-Modell mit Interaktionen und Termen höherer Ordnung zuerst anpassen kann. Da das Ziel dieses Neigungsbewertungsmodells darin besteht, die bestmögliche geschätzte Wahrscheinlichkeit einer Behandlungszuordnung zu erhalten, ist eine Überparametrisierung dieses Modells nicht zu befürchten.

Von:

PROPENSITY SCORE-METHODEN ZUR BIAS-REDUZIERUNG IM VERGLEICH EINER BEHANDLUNG ZU EINER NICHT-RANDOMISIERTEN KONTROLLGRUPPE

D'Agostino (zitiert Rosenbaum und Rubin)

D'agostino, RB 1998. Propensity Score Matching zur Bias-Reduktion im Vergleich einer Behandlung mit einer nicht randomisierten Kontrollgruppe. Statistical Medicine 17: 2265–2281.


5
(+1) In dieser verwandten Frage gab es auch einen interessanten Thread zum Thema Kausalität : Kann man aus statistischer Sicht mithilfe von Propensitätsbewertungen aus einer Beobachtungsstudie auf Kausalität schließen? .
Chl

3
Ich stimme der allgemeinen Prämisse dieser Antwort zu, aber wenn man auf der Grundlage der Neigungswerte übereinstimmt, ist dies nicht dasselbe wie das Einfügen aller Kovariaten in das Modell (und daher nicht nur eine Technik zur Dimensionsreduktion). Es ist auch nicht dasselbe, wenn man nach Neigungswerten gewichtet.
Andy W

1
Ich bin mit dieser Antwort nicht einverstanden. Geschätzte Neigungswerte sind gut, wenn sie Kovariaten in Behandlungs- und Kontrollgruppen ausgleichen, und schlecht, wenn nicht. Genau wie bei einem Regressionskonditionierungsansatz. Ob sie "besser" sind, hängt nur von dieser Eigenschaft ab, die von Problem zu Problem unterschiedlich sein wird.
Conjugateprior

1
Ich bin nicht einverstanden, weil das Kriterium, das Gleichgewicht, das gleiche ist, die beiden Strategien unterschiedlich sind, ebenso wie ihre Stärken und Schwächen. Je nach Problem kann ein besserer Ansatz gewählt werden oder auch nicht. In der Tat scheint mir das " äquivalente ANCOVA-Modell" nicht genau definiert zu sein. (Äquivalent wie?)
Conjugateprior

1
Richtig. Ich verstehe jetzt, was "Äquivalent" bedeutete, aber der Satz, der in Ihrem Zitat mit "Jedoch" beginnt, führt den relevanten Unterschied ein: in der Praxis prop. Partituren werden separat genau geschätzt , so dass sie sein können Art und Weise mehr knorrigen als das Analysemodell. (Und es gibt einen weiteren Unterschied im folgenden Absatz des Artikels, der nicht zitiert wird.)
conjugateprior

7

Eine wahrscheinliche stumpfe Referenz, aber wenn Sie zufällig Zugang dazu haben, würde ich empfehlen, dieses Buchkapitel zu lesen ( Apel und Sweeten, 2010 ). Es richtet sich an Sozialwissenschaftler und ist daher vielleicht nicht so streng mathematisch, wie Sie es zu wollen scheinen, aber es sollte so ausführlich sein, dass es mehr als eine zufriedenstellende Antwort auf Ihre Frage darstellt.

Es gibt verschiedene Möglichkeiten, wie Menschen Neigungsbewertungen behandeln, die zu unterschiedlichen Schlussfolgerungen führen können, wenn sie einfach Kovariaten in ein Regressionsmodell einbeziehen. Wenn man Treffer vergleicht, muss man nicht unbedingt für alle Beobachtungen eine gemeinsame Unterstützung haben (dh es gibt Beobachtungen, die scheinbar nie die Chance haben, in der Behandlungsgruppe zu stehen, und solche, die immer in der Behandlungsgruppe liegen). Außerdem kann man Beobachtungen auf verschiedene Arten gewichten, was zu unterschiedlichen Schlussfolgerungen führen kann.

Zusätzlich zu den Antworten hier empfehle ich Ihnen auch, die Antworten auf die hier genannte Frage zu lesen. Die Bewertung der Neigung steckt mehr dahinter als nur ein statistischer Trick zur Erzielung eines kovariaten Gleichgewichts. Wenn Sie die häufig zitierten Artikel von Rosenbaum und Rubin lesen und verstehen, wird klarer, warum sich der Ansatz von der Addition von Kovariaten in einem Regressionsmodell unterscheidet. Ich denke, eine zufriedenstellendere Antwort auf Ihre Frage liegt nicht unbedingt in der Mathematik hinter den Neigungsbewertungen, sondern in ihrer Logik.


@Andy W Siehe das Zitat von Rosenbaum und Rubin zur Äquivalenz der Regression mit Kovariaten und zur Anpassung des Neigungsfaktors in meinem aktualisierten Beitrag.
Brett

0

Ich stelle mir PS gerne als einen Teil des Designs der Studie vor, der sich vollständig von der Analyse getrennt hat. Das heißt, Sie möchten vielleicht in Bezug auf Design (PS) und Analyse (Regression usw.) denken. PS bietet auch ein Mittel zur Unterstützung der Austauschbarkeit für die binäre Behandlung; Vielleicht können andere dazu Stellung nehmen, ob die Einbeziehung der Kovariaten in das Ergebnismodell die Austauschbarkeit tatsächlich unterstützen kann oder ob man die Austauschbarkeit voraussetzt, bevor die Kovariaten in das Ergebnismodell einbezogen werden.


-3

Stat Methoden Med Res. 2016 Apr 19.

Eine Bewertung der Verzerrung in Neigungsscore-bereinigten nichtlinearen Regressionsmodellen.

Propensity-Score-Methoden werden häufig verwendet, um beobachtete Verwirrungen bei der Schätzung des konditionalen Behandlungseffekts in Beobachtungsstudien auszugleichen. Es wurde empirisch gezeigt, dass eine beliebte Methode, die kovariate Anpassung des Neigungswerts in einem Regressionsmodell, in nichtlinearen Modellen voreingenommen ist. Es wurde jedoch kein zwingender theoretischer Grund angegeben. Wir schlagen einen neuen Rahmen vor, um die Verzerrung und Konsistenz von an den Neigungsscore angepassten Behandlungseffekten in nichtlinearen Modellen zu untersuchen. Dabei wird ein einfacher geometrischer Ansatz verwendet, um eine Verbindung zwischen der Konsistenz des Neigungsscore-Schätzers und der Kollabierbarkeit nichtlinearer Modelle herzustellen. In diesem Rahmen zeigen wir, dass die Anpassung des Neigungsscores in einem Ergebnismodell zur Zerlegung der beobachteten Kovariaten in den Neigungsscore und einen Restterm führt. Das Weglassen dieser Restlaufzeit aus einem nicht kollabierbaren Regressionsmodell führt zu verzerrten Schätzungen des bedingten Odds Ratio und des bedingten Hazard Ratio, nicht jedoch des bedingten Rate Ratio. Wir zeigen ferner durch Simulationsstudien, dass die Verzerrung in diesen Schätzern mit angepasster Neigungsbewertung mit zunehmender Größe des Behandlungseffekts, größeren Kovariateneffekten und zunehmender Unähnlichkeit zwischen den Koeffizienten der Kovariaten im Behandlungsmodell und dem Ergebnismodell zunimmt.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.