In der Regel wird eine Inferenz abhängig von der tatsächlichen Stichprobengröße , da sie den interessierenden Parametern untergeordnet ist. dh es enthält keine Informationen über ihre wahren Werte, sondern wirkt sich nur auf die Genauigkeit aus, mit der Sie sie messen können. Cox (1958), "Einige Probleme im Zusammenhang mit statistischer Inferenz", Ann. Mathematik. Statist. 29 , 2 wird normalerweise als erstes zitiert, um das zu erläutern, was manchmal als das Konditionalitätsprinzip bezeichnet wird, obwohl es in viel früheren Arbeiten impliziert war und auf Fischers Idee von "relevanten Teilmengen" zurückgeht.n
Wenn die Finanzierung Ihres Forschers abgeschnitten wurde, weil die bisherigen Ergebnisse enttäuschend waren, ist natürlich keine Nebensache. Die vielleicht einfachste Veranschaulichung des Problems ist die Schätzung einer Bernoulli-Wahrscheinlichkeit anhand eines Stichprobenplans mit Binomialwert (feste Anzahl von Versuchen) oder eines Stichprobenplans mit negativem Binomialwert (feste Anzahl von Erfolgen). Die ausreichende Statistik ist in beiden Fällen gleich, aber die Verteilung ist unterschiedlich. Wie würden Sie ein Experiment analysieren, bei dem Sie nicht wussten, welches gefolgt wurde? Berger & Wolpert (1988), The Likelihood Principle ( Das Wahrscheinlichkeitsprinzip) diskutieren die Implikationen dieser und anderer Schlussregeln.n
Sie sollten sich überlegen, was passiert, wenn Sie keine Stichprobenverteilung berücksichtigen. Armitage (1961), "Comment on 'Consistency in Statistical Inference and Decision' von Smith", JRSS B, 23 , 1, wies darauf hin, dass, wenn Sie von einer Normalverteilung bis , das Wahrscheinlichkeitsverhältnis für die Prüfung , daß die Mittel vs ist , so dass der Forscher im Voraus durch eine geeignete Wahl von eine Grenze dafür setzen kann√xn−−√x¯≤kμ=0μ≠0L(0)L(x¯)≤e−k2/2k. Nur eine frequentistische Analyse kann die Verteilung des Wahrscheinlichkeitsverhältnisses im Rahmen dieses eher unfair erscheinenden Stichprobenplans berücksichtigen. Siehe die Antworten von Kerridge (1963), "Grenzen für die Häufigkeit irreführender Bayes-Schlussfolgerungen", Ann. Mathematik. Stat. , 34 , Cornfield (1966), "Sequential Trials, Sequential Analysis and the Likelihood Principle", The American Statistician , 20 , 2 , & Kadane (1996), "Reasoning to a foregone Schlussfolgerung", JASA , 91 , 435
Auf die Abhängigkeit der frequentistischen Inferenz von den Intentionen eines Forschers hinzuweisen, ist eine gute Gelegenheit, um Leute (falls es noch welche gibt), die sich über die "Subjektivität" der bayesianischen Inferenz auf den Beinen halten, auszuloten. Persönlich kann ich damit leben; Die Durchführung eines Verfahrens über eine lange Reihe von Wiederholungen wird immer mehr oder weniger fiktiv sein, was nicht davon ablenkt, dass es nützlich ist, dies in Betracht zu ziehen ("eine Kalibrierung der Wahrscheinlichkeit" lautete, wie Cox p-Werte beschrieb) ). Anhand der Daten der Referenzen haben Sie möglicherweise bemerkt, dass diese Probleme nicht sehr neu sind. Versuche, sie durch a priori Argumentation beizulegen, sind größtenteils zum Erliegen gekommen (außer im Internet, immer hinter der Zeit, außer in unbedeutenden Angelegenheiten).
PS: Als ich darüber nachdachte, Berger & Wolpert ein Gegengewicht zu verleihen, stieß ich auf Cox & Mayo (2010), "Objektivität und Konditionalität in frequentistischer Folgerung" in Fehler und Folgerung . In meiner Behauptung, dass die Debatte zum Erliegen gekommen ist, steckt mit großer Wahrscheinlichkeit ein Teil des Wunschdenkens, aber es ist bemerkenswert, wie wenig Neues in dieser Angelegenheit nach etwa einem halben Jahrhundert zu sagen ist. (Trotzdem ist dies eine prägnante und eloquente Verteidigung von frequentistischen Ideen.)