Ich arbeite derzeit daran, eine Methode zu implementieren, die in einem populären Artikel mit dem Titel "Ich habe gerade zwei Millionen Regressionen durchgeführt" verwendet wird. Die Grundidee dahinter ist, dass es bestimmte Fälle gibt, in denen nicht klar ist, welche Steuerelemente in das Modell aufgenommen werden sollen. In einem solchen Fall können Sie nach dem Zufallsprinzip Steuerelemente zeichnen, Millionen verschiedener Regressionen ausführen und dann sehen, wie Ihre interessierende Variable reagiert hat. Wenn es in allen Spezifikationen im Allgemeinen das gleiche Vorzeichen hat, können wir es als robuster betrachten als eine Variable, deren Vorzeichen sich immer ändert.
Das meiste Papier ist sehr klar. Das Papier gewichtet jedoch alle diese unterschiedlichen Regressionen auf folgende Weise: Die integrierte Wahrscheinlichkeit der gegebenen Spezifikation wird durch die Summe aller integrierten Wahrscheinlichkeiten für alle Spezifikationen geteilt.
Das Problem, das ich habe, ist, dass ich nicht sicher bin, wie die integrierte Wahrscheinlichkeit mit den OLS-Regressionen zusammenhängt, die ich ausführen möchte (in Stata). Das Googeln von Themen wie "stata integrierte Wahrscheinlichkeit" war eine Sackgasse, da ich immer wieder auf Dinge wie die logistische Regression mit gemischten Effekten stoße. Ich gebe zu, dass diese Modelle zu komplex sind, als dass ich sie verstehen könnte.
Meine derzeitige Arbeit besteht darin, dass in der Literatur verschiedene Gewichtungsschemata verwendet werden, die ich (irgendwie) verstehe. Beispielsweise ist es möglich, jede Regression basierend auf dem Likelihood-Ratio-Index zu gewichten. Es gibt sogar ein R-Paket, das den lri als Gewichte verwendet. Natürlich möchte ich auch das Original implementieren.
Irgendein Rat?
Papierlink: http://down.cenet.org.cn/upfile/34/2009112141315178.pdf