Sehr interessante Frage, hier ist meine Meinung dazu.
Es geht darum, Informationen zu codieren und dann die Bayes'sche Kurbel zu drehen. Es scheint zu schön, um wahr zu sein - aber beide sind schwieriger als sie scheinen.
Ich beginne mit der Frage
Welche Informationen werden verwendet, wenn wir uns über mehrere Vergleiche Gedanken machen?
Ich kann an einige denken - das erste ist "Datenbaggern" - testen Sie "alles", bis Sie genug Pässe / Fehler erhalten (ich würde denken, dass fast jede Statistik ausgebildete Person diesem Problem ausgesetzt wäre). Sie haben auch weniger unheimliche, aber im Wesentlichen das gleiche "Ich habe so viele Tests durchzuführen - sicherlich kann nicht alles richtig sein".
Nachdem ich darüber nachgedacht habe, stelle ich fest, dass Sie nicht viel über bestimmte Hypothesen oder Vergleiche hören. Es geht nur um die "Sammlung" - dies löst meine Überlegungen zur Austauschbarkeit aus - die Hypothese, die verglichen wird, ist in gewisser Weise "ähnlich". Und wie verschlüsselt man die Austauschbarkeit in eine Bayes'sche Analyse? - Hyper-Priors, gemischte Models, zufällige Effekte usw. !!!
Die Austauschbarkeit bringt Sie jedoch nur teilweise dorthin. Ist alles austauschbar? Oder haben Sie "Sparsity" - wie zum Beispiel nur wenige Nicht-Null-Regressionskoeffizienten mit einem großen Pool von Kandidaten. Gemischte Modelle und normalverteilte zufällige Effekte funktionieren hier nicht. Sie bleiben zwischen Quetschgeräuschen und unberührten Signalen "hängen" (z. B. lassen Sie in Ihrem Beispiel die Parameter locationB und locationC "true" gleich und setzen Sie den Parameter locationA "true" beliebig groß oder klein, und beobachten Sie, wie das standardmäßige lineare gemischte Modell versagt.) . Aber es kann behoben werden - zB mit "Spike and Slab" -Prioren oder "Horse Shoe" -Prioren.
Es geht also mehr darum, zu beschreiben, um welche Art von Hypothese es sich handelt und wie viele bekannte Merkmale sich im Stand und in der Wahrscheinlichkeit widerspiegeln. Andrew Gelmans Ansatz ist nur eine Möglichkeit, eine breite Klasse von Mehrfachvergleichen implizit zu behandeln. Genau wie bei den kleinsten Quadraten funktionieren Normalverteilungen in den meisten Fällen (aber nicht bei allen) gut.
In Bezug auf die Funktionsweise könnte man sich eine Person vorstellen, die wie folgt argumentiert: Gruppe A und Gruppe B haben möglicherweise den gleichen Mittelwert. Ich habe mir die Daten angesehen und die Mittelwerte sind "nah". Daher, um eine bessere Schätzung zu erhalten Für beide sollte ich die Daten bündeln, da ich anfangs dachte, dass sie den gleichen Mittelwert haben. - Wenn sie nicht gleich sind, liefern die Daten den Beweis, dass sie "nah" sind, so dass das Zusammenfassen von "ein bisschen" mich nicht allzu sehr verletzt, wenn meine Hypothese falsch war (a la alle Modelle sind falsch, einige sind nützlich).
Beachten Sie, dass alle oben genannten Punkte von der anfänglichen Annahme abhängen, dass sie gleich sein könnten. Nehmen Sie das weg, und es gibt keine Rechtfertigung für das Zusammenlegen. Sie können wahrscheinlich auch eine "normalistische Verteilung" sehen, wenn Sie über die Tests nachdenken. "Null ist am wahrscheinlichsten", "wenn nicht Null, dann ist nahe Null am wahrscheinlichsten", "Extremwerte sind unwahrscheinlich". Betrachten Sie diese Alternative:
- Mittelwerte von Gruppe A und Gruppe B können gleich sein, sie können sich jedoch auch drastisch unterscheiden
Dann ist das Argument, "ein bisschen" zu bündeln, eine sehr schlechte Idee. Sie sind besser dran, wenn Sie Total Pooling oder Zero Pooling wählen. Vielmehr wie ein Cauchy, Spike & Slab, Art der Situation (viel Masse um Null und viel Masse für extreme Werte)
Der gesamte mehrfache Vergleich muss nicht behandelt werden, da der Bayes'sche Ansatz die Informationen einbezieht, die dazu führen , dass wir uns Sorgen über den Stand und / oder die Wahrscheinlichkeit machen . In gewisser Hinsicht ist es eher eine Erinnerung daran, richtig darüber nachzudenken, welche Informationen für Sie verfügbar sind, und sicherzustellen, dass Sie sie in Ihre Analyse aufgenommen haben.