Die nicht-bayesianische prädiktive Inferenz (abgesehen vom Fall der Spiegelreflexkamera) ist ein relativ neues Gebiet. Unter der Überschrift "Nicht-Bayesian" können wir die Ansätze in "klassische" Frequentisten und "Wahrscheinlichkeitsansätze" unterteilen.
Klassische häufige Vorhersage
αβ
Jetzt hatte ich im Allgemeinen Probleme damit, wie klassische PIs in den meisten Statistikkursen vorgestellt und unterrichtet werden, da die überwältigende Tendenz darin besteht, diese als Bayes'sche posteriore Vorhersageintervalle zu interpretieren, was definitiv nicht der Fall ist. Grundsätzlich geht es um unterschiedliche Wahrscheinlichkeiten! Bayesianer erheben keinen Anspruch auf die wiederholte Probenahme ihrer Mengen (sonst wären sie Frequentisten). Zweitens erreicht ein Bayes-PI tatsächlich etwas, das einem klassischen Toleranzintervall ähnlicher ist als einem klassischen Vorhersageintervall.
Als Referenz: Toleranzintervalle müssen mit zwei Wahrscheinlichkeiten angegeben werden : der Zuverlässigkeit und der Abdeckung. Das Vertrauen sagt uns, wie oft es in wiederholten Proben korrekt ist. Die Abdeckung sagt uns die Mindest Wahrscheinlichkeitsmaß des Intervalls unter der wahren Verteilung (in Bezug auf das PI gegenüber , das das gibt erwarteten Wahrscheinlichkeitsmaß ... wieder unter wiederholter Probenahme). Dies ist im Grunde das, was der Bayesianische PI auch versucht, jedoch ohne Behauptungen über wiederholte Probenahmen.
Die Grundlogik der einfachen linearen Regression von Stats 101 besteht also darin, die Eigenschaften der wiederholten Abtastung des PI unter der Annahme der Normalität abzuleiten. Es ist der häufigste + Gaußsche Ansatz, der normalerweise als "klassisch" eingestuft wird und in Intro-Statistik-Kursen unterrichtet wird. Dies basiert auf der Einfachheit der resultierenden Berechnungen (siehe Wikipedia für einen schönen Überblick).
Nicht-Gaußsche Wahrscheinlichkeitsverteilungen sind im Allgemeinen problematisch, weil es ihnen an entscheidenden Größen mangeln kann, die sauber invertiert werden können, um ein Intervall zu erhalten. Daher gibt es für diese Verteilungen keine "exakte" Methode, da die Eigenschaften des Intervalls häufig von den tatsächlichen zugrunde liegenden Parametern abhängen.
In Anerkennung dieser Unfähigkeit entstand eine weitere Klasse von Vorhersagen (und von Schlussfolgerungen und Schätzungen) mit dem Wahrscheinlichkeitsansatz.
Wahrscheinlichkeitsbasierte Inferenz
Wahrscheinlichkeitsbasierte Ansätze lassen sich wie viele moderne statistische Konzepte auf Ronald Fisher zurückführen. Die Grundidee dieser Schule ist, dass unsere statistischen Schlussfolgerungen mit Ausnahme von Sonderfällen logisch schwächer sind als bei Schlussfolgerungen aus einer Normalverteilung (deren Parameterschätzungen orthogonal sind ), in der wir genaue Wahrscheinlichkeitsaussagen treffen können. Aus dieser Sicht der Folgerung sollte man Aussagen über die Wahrscheinlichkeit wirklich vermeiden, außer im genauen Fall, ansonsten sollte man Aussagen über die Wahrscheinlichkeit machen und anerkennen, dass man die genaue Fehlerwahrscheinlichkeit nicht kennt (im häufigeren Sinne).
Daher können wir die Wahrscheinlichkeit als mit der Bayes'schen Wahrscheinlichkeit verwandt ansehen, jedoch ohne die Integrierbarkeitsanforderungen oder die mögliche Verwechslung mit der frequentistischen Wahrscheinlichkeit. Ihre Interpretation ist völlig subjektiv ... obwohl für die Inferenz einzelner Parameter oft ein Wahrscheinlichkeitsverhältnis von 0,15 empfohlen wird.
Allerdings sieht man nicht oft Artikel, die explizit "Wahrscheinlichkeitsintervalle" angeben. Warum? Es scheint, dass dies größtenteils eine Frage der Soziologie ist, da wir uns alle an wahrscheinlichkeitsbasierte Vertrauensaussagen gewöhnt haben. Stattdessen sehen Sie oft einen Autor, der sich auf ein "ungefähres" oder "asymptotisches" Konfidenzintervall von solchem und solchem bezieht. Diese Intervalle leiten sich größtenteils aus Likelihood-Methoden ab, bei denen wir uns auf die asymptotische Chi-Quadrat-Verteilung des Likelihood-Verhältnisses stützen, ähnlich wie wir uns auf die asymptotische Normalität des Stichprobenmittelwerts stützen.
Mit dieser "Korrektur" können wir nun "ungefähre" 95% -Vertrauensbereiche mit fast genauso logischer Konsistenz wie die Bayesianer konstruieren.
Von CI zu PI im Likelihood Framework
Der Erfolg und die Leichtigkeit des oben genannten Likelihood-Ansatzes führten zu Überlegungen, wie er auf Vorhersagen ausgedehnt werden kann. Ein sehr schöner Übersichtsartikel dazu ist hier zu finden (ich werde seine hervorragende Berichterstattung nicht wiedergeben). Es geht zurück auf David Hinkley in den späten 1970er Jahren (siehe JSTOR ), der den Begriff geprägt hat. Er wandte es auf das mehrjährige " Pearson's Binomial Prediction Problem " an. Ich werde die grundlegende Logik zusammenfassen.
yyy
Die Grundregeln zum Entfernen von "Stör" -Parametern, um eine prädiktive Wahrscheinlichkeit zu erhalten, lauten wie folgt:
- μ , σ
- Wenn ein Parameter zufällig ist (z. B. andere nicht beobachtete Daten oder "zufällige Effekte"), integrieren Sie sie heraus (genau wie beim Bayes'schen Ansatz).
Die Unterscheidung zwischen einem festen und einem zufälligen Parameter ist für die Wahrscheinlichkeitsinferenz eindeutig, hat jedoch Verbindungen zu Modellen mit gemischten Effekten, bei denen das Bayes'sche, das Frequent'sche und das Wahrscheinlichkeitsgerüst anscheinend kollidieren.
Hoffentlich hat dies Ihre Frage nach dem weiten Bereich der "nicht-Bayes'schen" Vorhersage (und der Schlußfolgerung in dieser Angelegenheit) beantwortet. Da sich Hyperlinks ändern können, werde ich auch einen Plug für das Buch "In aller Wahrscheinlichkeit: Statistische Modellierung und Inferenz unter Verwendung von Likelihood" erstellen, in dem das moderne Likelihood-Framework eingehend erörtert wird Inferenz und Vorhersage.
Verweise
- Vorhersageintervalle: Nicht parametrische Methoden . Wikipedia. Abgerufen am 13.09.2015.
- Bjornstad, Jan F. Voraussagbare Wahrscheinlichkeit: Ein Rückblick. Statist. Sci. 5 (1990), no. 2, 242 & ndash; 254. doi: 10.1214 / ss / 1177012175.
http://projecteuclid.org/euclid.ss/1177012175 .
- David Hinkley. Voraussagbare Wahrscheinlichkeit . Die Annalen der Statistik Vol. 7, No. 4 (Jul. 1979), S. 718-728 Herausgeber: Institute of Mathematical Statistics Stable URL: http://www.jstor.org/stable/2958920
- Yudi Pawitan. In All Likelihood: Statistische Modellierung und Inferenz unter Verwendung von Likelihood. Oxford University Press; 1 Ausgabe (30. August 2001). ISBN-10: 0198507658, ISBN-13: 978-0198507659. Insbesondere die Kapitel 5.5-5.9, 10 und 16.