Wer hat p-Werte zuerst benutzt / erfunden?


30

Ich versuche, eine Reihe von Blog-Posts über p-Werte zu schreiben, und ich dachte, es wäre interessant, dorthin zurückzukehren, wo alles begann - das scheint Pearsons 1900-Papier zu sein. Wenn Sie mit diesem Papier vertraut sind, werden Sie sich daran erinnern, dass dies das Testen der Anpassungsgüte umfasst.

Pearson ist ein bisschen locker mit seiner Sprache, wenn es um p-Werte geht. Er verwendet wiederholt die "Gewinnchancen", wenn er beschreibt, wie sein p-Wert zu interpretieren ist. Zum Beispiel sagt er auf S.168, wenn er über die Ergebnisse von Wiederholungswürfeln mit 12 Würfeln spricht: " ... was uns zu P = .0000016 führt, oder die Chancen sind 62.499 zu 1 gegen ein solches Abweichungssystem bei einem Zufall Bei solchen Gewinnchancen wäre es vernünftig zu folgern, dass die Würfel eine Tendenz zu den höheren Punkten aufweisen. "

In diesem Artikel bezieht er sich auf frühere Arbeiten, einschließlich eines Buches über die kleinsten Fehlerquadrate von Merriman aus dem Jahr 1891.

Aber Pearson legt die Berechnung für p-Werte (bezogen auf die Chi-Quadrat-Güte des Fit-Tests) fest.

War Pearson die erste Person, die sich p-Werte ausgedacht hat? Wenn ich nach p-Werten suche, wird Fisher erwähnt - und seine Arbeit war in den 1920er Jahren.

Bearbeitet: und ein Dankeschön für die Erwähnung von Laplace - er schien sich nicht mit der Nullhypothese zu befassen (Pearson scheint dies implizit zu tun, obwohl er diesen Begriff in seiner Arbeit von 1900 nie verwendet hat). Pearson betrachtete die Prüfung der Anpassungsgüte wie folgt: Unter der Annahme, dass die Zählungen aus einem unvoreingenommenen Prozess abgeleitet wurden, wie hoch ist die Wahrscheinlichkeit, dass die beobachteten Zählungen (und die abweichenderen Zählungen) aus der angenommenen Verteilung resultieren?

Seine Behandlung der Wahrscheinlichkeiten / Chancen (er wandelt die Wahrscheinlichkeiten in Chancen um) legt nahe, dass er mit einer impliziten Idee der Nullhypothese arbeitet. Entscheidend ist auch, dass die Wahrscheinlichkeit, die sich aus dem x ^ 2-Wert ergibt, die Wahrscheinlichkeit "gegen ein System von Abweichungen als unwahrscheinlicher oder unwahrscheinlicher als diese" - wie wir sie heute kennen - in Bezug auf seine berechneten p-Werte zeigt.

Ging Arbuthnot so weit?

Fühlen Sie sich frei, Ihre Kommentare als Antworten einzutragen. Es wäre schön, eine Diskussion zu sehen.


7
Dieser Artikel schlägt vor, dass es von Laplace verwendet wurde, wodurch eine Untergrenze festgelegt wurde: en.wikipedia.org/wiki/…

9
Man könnte argumentieren, dass Arbuthnot (1710) in Ein Argument für die göttliche Vorsehung, entnommen aus der konstanten Regelmäßigkeit, die bei den Geburten beider Geschlechter beobachtet wurde, vielleicht zählen könnte. Er verwendet ein Münzmodell ('cross and pile') und berechnet zunächst die Wahrscheinlichkeit, genau so viele Köpfe wie Schwänze zu erhalten, bevor er darauf hinweist, dass die "Chancen" einige der Begriffe neben dem mittleren aufnehmen und sich auf eins lehnen werden Seite oder die andere. Aber es ist sehr unwahrscheinlich (wenn nur der Zufall regiert), dass sie niemals bis zu den Extremitäten gelangen würden "; wir können sehen, wie er sich dort einer Vorstellung von einem p-Wert nähert.
Glen_b -Reinstate Monica

4
Seltsamerweise schlägt David in seiner Liste jstor.org/stable/2685564?seq=1#page_scan_tab_contents vor, dass der Begriff P-Wert erstmals 1943 von Deming in seinem Buch "Statistical Adjustment of Data" verwendet wurde. Ich weiß, Sie sind nach dem Konzept nicht der Begriff, aber ich fand es interessant zu sehen, wann der Begriff schließlich erschien.
Mdewey

2
Wer erfunden hat, ist vielleicht schwer herauszufinden. Aber wer für die derzeitige Verwendung von p-Werten verantwortlich ist, ist mit Sicherheit Fisher.
Carlos Cinelli

1
Wir definieren den p-Wert als 'die Wahrscheinlichkeit, ein Ergebnis innerhalb eines bestimmten Bereichs zu erhalten (häufig ein Wert oder ein Extremwert für eine berechnete Statistik, wie sie von Pearson 1900 verwendet wurde), vorausgesetzt, eine bestimmte Hypothese ist richtig'?
Sextus Empiricus

Antworten:


19

Jacob Bernoulli (~ 1700) - John Arbuthnot (1710) - Nicolaus Bernoulli (1710er) - Abraham de Moivre (1718)

Der Fall von Arbuthnot 1, siehe Erläuterung unten , kann auch in de Moivres Doctrine of Chance (1718) ab Seite 251-254 nachgelesen werden, der diese Denkrichtung erweitert.

De Moivre macht zwei Schritte / Fortschritte:

  1. Die normale Näherung einer Bernoulli-Verteilung, mit der sich Wahrscheinlichkeiten für Ergebnisse innerhalb oder außerhalb eines bestimmten Bereichs leicht berechnen lassen. In dem Abschnitt vor dem Beispiel zu Arbuthnots Fall schreibt de Moivre über seine Näherung (jetzt als Gauß-Normalverteilung bezeichnet) für die Bernoulli-Verteilung. Diese Näherung erlaubt es, leicht einen p-Wert zu berechnen (was Arbuthnot nicht konnte).

  2. Verallgemeinerung von Arbuthnots Argument. Er erwähnt, dass "diese Argumentationsmethode auch bei einigen anderen sehr interessanten Untersuchungen nützlich sein kann". (Dies kann de Moivre teilweise dafür danken, dass er die allgemeine Anwendbarkeit des Arguments gesehen hat.)


  • Laut de Moivre schrieb Jacob Bernoulli in seiner Ars Conjectandi über dieses Problem . De Moivre nennt dies auf Englisch „Zuweisen der Grenzen, innerhalb derer sich die Wahrscheinlichkeit eines Ereignisses durch Wiederholung von Experimenten einer gegebenen Wahrscheinlichkeit auf unbestimmte Zeit annähern kann“, aber der Originaltext von Bernouilli ist in lateinischer Sprache. Ich kenne nicht genug Latein, um herauszufinden, ob Bernoulli über ein Konzept wie den p-Wert oder eher über das Gesetz der großen Zahlen schrieb. Interessant ist, dass Bernouilli behauptet, diese Ideen seit 20 Jahren zu haben (und auch das Werk 1713 wurde nach seinem Tod 1705 veröffentlicht, so dass es dem Datum 1710 vorauszugehen scheint, das in den Kommentaren von @Glen_b für Arbuthnot erwähnt wurde).

  • Eine Quelle der Inspiration für de Moivre war Nicolaus Bernouilli, der 1712/13 die Wahrscheinlichkeit berechnete, dass die Zahl der Jungen mindestens 7037 und höchstens 7363 beträgt, wenn 14000 Kinder geboren wurden und Die Wahrscheinlichkeit für einen Jungen ist 18/35.

    (Die Zahlen für dieses Problem basierten auf einer 80-jährigen Statistik für London. Er schrieb darüber in Briefen an Pierre Raymond de Montmort, die in der zweiten Ausgabe (1713) von Montmorts Aufsatz über die Gefährdung veröffentlicht wurden .)

    Die Berechnungen, denen ich nicht ganz gefolgt bin, ergaben eine Wahrscheinlichkeit von 43,58 zu 1. (Mit einem Computer, der die Wahrscheinlichkeit aller Terme eines Binoms von 7037 bis 7363 summiert, erhalte ich 175: 1, so dass ich seine Arbeit / Berechnung möglicherweise falsch interpretiert habe. )


1: John Arbuthnot schrieb über diesen Fall in Ein Argument für die göttliche Vorsehung, entnommen aus der konstanten Regelmäßigkeit, die bei der Geburt beider Geschlechter beobachtet wurde (1710).

128214836000000000000000000000

Arbuthnot: Dann ist A's Chance in der Nähe einer unendlich kleinen Menge, zumindest weniger als jede zuweisbare Fraktion. Woher folgt, regiert die Kunst, nicht der Zufall.


Geschrieben von StackExchangeStrike


Möglicherweise kann eine Geschichte der umgekehrten Wahrscheinlichkeit von Andrew Dale mehr helfen. (Auf der Suche nach der Übersetzung von Bernoulli fand ich, dass er die von de Moivre erwähnte relevante Passage übersetzt hat). In den frühen Tagen war diese inverse Wahrscheinlichkeit, die heute eher als Bayes'sche Technik angesehen wird, möglicherweise ein recht häufig vorkommendes Interpretations- und Verwendungsinstrument.
Sextus Empiricus

3

Ich habe drei unterstützende Links / Argumente, die das Datum ~ 1600-1650 für formal entwickelte Statistiken und viel früher für die einfache Verwendung von Wahrscheinlichkeiten unterstützen.

Wenn Sie das Testen von Hypothesen als Grundlage akzeptieren und die Wahrscheinlichkeit voraussetzen, bietet das Online-Etymologie-Wörterbuch Folgendes:

" Hypothese (n.)

1590er Jahre, "eine bestimmte Aussage;" 1650er Jahre, "ein als Prämisse angenommener und angenommener Satz" aus der mittelfranzösischen Hypothese und direkt aus der spätlateinischen Hypothese, aus der griechischen Hypothese "Grundlage, Fundament, also in erweitertem Gebrauch", Grundlage eines Arguments, Annahme, "wörtlich" eine Unterstellung, "aus Unterstellung" (siehe Hypo-) + These "eine Unterstellung, Satz" (aus reduzierter Form der Tortenwurzel * dhe- "setzen, setzen"). Ein Begriff in der Logik; der engere wissenschaftliche Sinn stammt aus den 1640er Jahren. "

Wiktionary bietet:

"Aufgenommen seit 1596, aus der mittelfranzösischen Hypothese, aus der spätlateinischen Hypothese, aus dem Altgriechischen ὑπόθεσις (Hupóthesis," Basis, Grundlage eines Arguments, Vermutung "), wörtlich" eine Unterstellung ", selbst aus ὑποτίθημι (hupotíthēmi," I set vorher vorschlagen ”), aus ὑπὑ (hupó,“ unten ”) + τίθημι (títhēmi,“ Ich setze, platziere ”).

Nomenhypothese (Pluralhypothesen)

(Wissenschaften) Locker verwendet, eine vorläufige Vermutung, die eine Beobachtung, ein Phänomen oder ein wissenschaftliches Problem erklärt, das durch weitere Beobachtung, Untersuchung und / oder Experimente überprüft werden kann. Als wissenschaftlicher Kunstbegriff siehe das beigefügte Zitat. Vergleiche mit der Theorie und dem dort gegebenen Zitat. Zitate ▲

  • 2005, Ronald H. Pine, http://www.csicop.org/specialarticles/show/intelligent_design_or_no_model_creationism , 15. Oktober 2005:

    Viel zu viele von uns haben in der Schule gelernt, dass ein Wissenschaftler, wenn er versucht, etwas herauszufinden, zuerst eine "Hypothese" aufstellt (eine Vermutung oder Vermutung - nicht unbedingt sogar eine "gebildete" Vermutung). ... Das Wort "Hypothese" sollte in der Wissenschaft ausschließlich für eine begründete, vernünftige, wissensbasierte Erklärung verwendet werden, warum ein Phänomen existiert oder auftritt. Eine Hypothese kann noch ungeprüft sein; kann bereits getestet worden sein; kann gefälscht worden sein; möglicherweise noch nicht gefälscht, obwohl getestet; oder auf unzählige Arten unzählige Male getestet worden sein, ohne verfälscht zu werden; und es kann von der wissenschaftlichen Gemeinschaft allgemein akzeptiert werden. Ein Verständnis des Wortes "Hypothese", wie es in der Wissenschaft verwendet wird, erfordert ein Verständnis der Prinzipien, die Occam zugrunde liegen. s Der Gedanke von Razor und Karl Popper in Bezug auf "Fälschbarkeit" - einschließlich des Gedankens, dass jede seriöse wissenschaftliche Hypothese im Prinzip "in der Lage" sein muss, sich als falsch zu erweisen (falls sie tatsächlich einfach falsch sein sollte), aber Keiner kann jemals als wahr erwiesen werden. Ein Aspekt des richtigen Verständnisses des Wortes "Hypothese", wie es in der Wissenschaft verwendet wird, ist, dass nur ein verschwindend kleiner Prozentsatz von Hypothesen jemals möglicherweise zu einer Theorie werden könnte.

Zu Wahrscheinlichkeit und Statistik bietet Wikipedia :

" Datenerfassung

Probenahme

Wenn keine vollständigen Volkszählungsdaten erfasst werden können, erfassen Statistiker Stichprobendaten, indem sie spezifische Versuchspläne und Stichproben entwickeln. Die Statistik selbst bietet auch Werkzeuge zur Vorhersage und Prognose über statistische Modelle. Die Idee, auf der Grundlage von Stichprobendaten Rückschlüsse zu ziehen, begann um die Mitte des 17. Jahrhunderts im Zusammenhang mit der Schätzung der Populationen und der Entwicklung von Vorläufern für die Lebensversicherung . (Referenz: Wolfram, Stephen (2002). Eine neue Art von Wissenschaft. Wolfram Media, Inc., S. 1082. ISBN 1-57955-008-8).

Um eine Stichprobe als Leitfaden für eine gesamte Bevölkerung zu verwenden, ist es wichtig, dass sie die Gesamtbevölkerung wirklich darstellt. Durch repräsentative Stichproben wird sichergestellt, dass Rückschlüsse und Schlussfolgerungen sicher von der Stichprobe auf die gesamte Bevölkerung übertragen werden können. Ein Hauptproblem besteht darin, festzustellen, inwieweit die ausgewählte Stichprobe tatsächlich repräsentativ ist. Die Statistik bietet Methoden zum Schätzen und Korrigieren von Verzerrungen innerhalb der Stichproben- und Datenerfassungsverfahren. Es gibt auch Methoden des experimentellen Aufbaus für Experimente, die diese Probleme zu Beginn einer Studie verringern und ihre Fähigkeit stärken, Wahrheiten über die Bevölkerung zu erkennen.

Die Abtasttheorie ist Teil der mathematischen Disziplin der Wahrscheinlichkeitstheorie. Die Wahrscheinlichkeit wird in der mathematischen Statistik verwendet, um die Stichprobenverteilungen der Stichprobenstatistik und allgemeiner die Eigenschaften statistischer Verfahren zu untersuchen. Die Verwendung einer statistischen Methode ist gültig, wenn das betreffende System oder die betreffende Grundgesamtheit die Annahmen der Methode erfüllt. Der Unterschied zwischen der klassischen Wahrscheinlichkeitstheorie und der Stichprobentheorie besteht grob darin, dass die Wahrscheinlichkeitstheorie von den gegebenen Parametern einer Gesamtpopulation ausgeht, um Wahrscheinlichkeiten abzuleiten, die sich auf Stichproben beziehen. Die statistische Inferenz bewegt sich jedoch in die entgegengesetzte Richtung - sie leitet induktiv von den Stichproben auf die Parameter einer größeren oder Gesamtpopulation ab .

Aus "Wolfram, Stephen (2002). Eine neue Art von Wissenschaft. Wolfram Media, Inc. S. 1082.":

" Statistische Analyse

• Geschichte. Einige Quotenberechnungen für Glücksspiele wurden bereits in der Antike durchgeführt. Ab dem 12. Jahrhundert wurden von Mystikern und Mathematikern zunehmend aussagekräftigere Ergebnisse auf der Grundlage der kombinatorischen Aufzählung von Wahrscheinlichkeiten erhalten, wobei Mitte des 17. und Anfang des 17. Jahrhunderts systematisch korrekte Methoden entwickelt wurden. Die Idee, aus den Daten der Stichprobe Rückschlüsse zu ziehen, entstand Mitte des 17. Jahrhunderts im Zusammenhang mit der Schätzung der Bevölkerung und der Entwicklung von Vorläufern für die Lebensversicherung. Die Methode der Mittelwertbildung zur Korrektur von als zufällig angenommenen Beobachtungsfehlern wurde vor allem in der Astronomie ab Mitte des 18. Jahrhunderts angewendet, während um 1800 die Anpassung der kleinsten Quadrate und der Begriff der Wahrscheinlichkeitsverteilungen etabliert wurden. Probabilistische Modelle basierend auf zufällige Variationen zwischen Individuen begannen Mitte des 19. Jahrhunderts in der Biologie, und viele der klassischen Methoden, die heute für statistische Analysen verwendet werden, wurden Ende des 19. Jahrhunderts und Anfang des 20. Jahrhunderts im Rahmen der Agrarforschung entwickelt. In der Physik waren grundsätzlich probabilistische Modelle für die Einführung der statistischen Mechanik im späten 19. Jahrhundert und der Quantenmechanik im frühen 20. Jahrhundert von zentraler Bedeutung.

Andere Quellen:

"Dieser Bericht definiert in hauptsächlich nicht mathematischen Begriffen den p-Wert, fasst die historischen Ursprünge des p-Wert-Ansatzes für das Testen von Hypothesen zusammen, beschreibt verschiedene Anwendungen von p ≤ 0,05 im Rahmen der klinischen Forschung und erörtert die Entstehung von p ≤ 5 × 10−8 und andere Werte als Schwellenwerte für genomstatistische Analysen. "

Im Abschnitt "Historische Ursprünge" heißt es:

[1]

[1] Arbuthnott J. Ein Argument für die göttliche Vorsehung, entnommen aus der ständigen Regelmäßigkeit, die bei der Geburt beider Geschlechter beobachtet wurde. Phil Trans 1710; 27: 186–90. doi: 10.1098 / rstl.1710.0011 veröffentlicht am 1. Januar 1710

1-45-78910,11

Ich werde nur eine begrenzte Verteidigung der P-Werte anbieten. ... ".

Verweise

1 Hald A. A history of probability and statistics and their appli- cations before 1750. New York: Wiley, 1990.
2 Shoesmith E, Arbuthnot, J. In: Johnson, NL, Kotz, S, editors. Leading personalities in statistical sciences. New York: Wiley, 1997:7–10. 
3 Bernoulli, D. Sur le probleme propose pour la seconde fois par l’Acadamie Royale des Sciences de Paris. In: Speiser D,
editor. Die Werke von Daniel Bernoulli, Band 3, Basle:
Birkhauser Verlag, 1987:303–26. 
4 Arbuthnot J. An argument for divine providence taken from
the constant regularity observ’d in the births of both sexes. Phil Trans R Soc 1710;27:186–90. 
5 Freeman P. The role of P-values in analysing trial results. Statist Med 1993;12:1443 –52. 
6 Anscombe FJ. The summarizing of clinical experiments by
significance levels. Statist Med 1990;9:703 –8.
7 Royall R. The effect of sample size on the meaning of signifi- cance tests. Am Stat 1986;40:313 –5.
8 Senn SJ. Discussion of Freeman’s paper. Statist Med
1993;12:1453 –8.
9 Gardner M, Altman D. Statistics with confidence. Br Med J
1989.
10 Matthews R. The great health hoax. Sunday Telegraph 13
September, 1998. 
11 Matthews R. Flukes and flaws. Prospect 20–24, November 1998.

@Martijn Weterings : "War Pearson 1900 die Wiederbelebung oder erschien dieses (häufig auftretende) Konzept früher? Wie hat Jacob Bernoulli über sein 'goldenes Theorem' im häufig auftretenden oder im bayesianischen Sinne nachgedacht (was sagt und ist das Ars Conjectandi? gibt es mehr Quellen)?

Die American Statistical Association hat eine Webseite zur Geschichte der Statistik , auf der zusammen mit diesen Informationen ein (teilweise unten wiedergegebenes) Poster mit dem Titel "Timeline of Statistics" veröffentlicht ist.

  • ANZEIGE 2: Der Nachweis einer während der Han-Dynastie durchgeführten Volkszählung ist erhalten.

  • 1500s: Girolamo Cardano berechnet die Wahrscheinlichkeiten verschiedener Würfelwürfe.

  • 1600er: Edmund Halley bezieht die Sterblichkeitsrate auf das Alter und entwickelt Sterbetafeln.

  • 1700: Thomas Jefferson leitet die erste US-Volkszählung.

  • 1839: Die American Statistical Association wird gegründet.

  • 1894: Der Begriff "Standardabweichung" wird von Karl Pearson eingeführt.

  • 1935: RA Fisher veröffentlicht Design of Experiments.

Teilzeitleiste der Statistik

Im Abschnitt "Geschichte" der Wikipedia-Webseite " Gesetz der großen Zahlen " wird erklärt:

"Der italienische Mathematiker Gerolamo Cardano (1501–1576)angegeben, ohne zu beweisen, dass sich die Genauigkeit empirischer Statistiken mit der Anzahl der Versuche tendenziell verbessert. Dies wurde dann als ein Gesetz von großer Anzahl formalisiert. Eine spezielle Form der LLN (für eine binäre Zufallsvariable) wurde zuerst von Jacob Bernoulli bewiesen. Über 20 Jahre brauchte er, um einen hinreichend strengen mathematischen Beweis zu entwickeln, der 1713 in seinem Ars Conjectandi (Die Kunst der Vermutung) veröffentlicht wurde. Er nannte ihn seinen "Goldenen Theorem", der jedoch allgemein als "Bernoullis Theorem" bekannt wurde. Dies sollte nicht mit dem Bernoulli-Prinzip verwechselt werden, das nach Jacob Bernoullis Neffen Daniel Bernoulli benannt ist. SD Poisson beschrieb es 1837 unter dem Namen "la loi des grands nombres" ("Das Gesetz der großen Zahlen") weiter. Danach war es unter beiden Namen bekannt, aber die "

Nachdem Bernoulli und Poisson ihre Bemühungen veröffentlicht hatten, trugen auch andere Mathematiker zur Verfeinerung des Gesetzes bei, darunter Chebyshev, Markov, Borel, Cantelli, Kolmogorov und Khinchin. "


Frage: "War Pearson die erste Person, die sich p-Werte ausgedacht hat?"

Nein wahrscheinlich nicht.

In der " Erklärung der ASA zu p-Werten: Kontext, Prozess und Zweck " (9. Juni 2016) von Wasserstein und Lazar, doi: 10.1080 / 00031305.2016.1154108, gibt es eine offizielle Erklärung zur Definition des p-Werts (die Nr Zweifel, die nicht von allen Disziplinen vereinbart wurden, die p-Werte verwenden oder ablehnen) mit den Worten:

" . Was ist ein p - Wert?

Informell ausgedrückt ist ein p-Wert die Wahrscheinlichkeit, dass eine statistische Zusammenfassung der Daten (z. B. die durchschnittliche Stichprobendifferenz zwischen zwei verglichenen Gruppen) unter einem bestimmten statistischen Modell gleich oder extremer als der beobachtete Wert ist.

3. Grundsätze

...

6. Ein p-Wert allein liefert kein gutes Maß für die Evidenz in Bezug auf ein Modell oder eine Hypothese.

Forscher sollten erkennen, dass ein p-Wert ohne Kontext oder andere Hinweise nur begrenzte Informationen liefert. Zum Beispiel bietet ein p-Wert in der Nähe von 0,05 für sich genommen nur schwache Beweise gegen die Nullhypothese. Ebenso impliziert ein relativ großer p-Wert keinen Beweis für die Nullhypothese; Viele andere Hypothesen stimmen möglicherweise mit den beobachteten Daten überein. Aus diesen Gründen sollte die Datenanalyse nicht mit der Berechnung eines p-Wertes enden, wenn andere Ansätze angemessen und machbar sind. "

Die Ablehnung der Nullhypothese erfolgte wahrscheinlich lange vor Pearson.

Wikipedia-Seite über frühe Beispiele für Nullhypothesentestzustände :

Frühe Entscheidungen der Nullhypothese

Paul Meehl hat argumentiert, dass die erkenntnistheoretische Bedeutung der Wahl der Nullhypothese weitgehend unbeachtet blieb. Wenn die Nullhypothese theoretisch vorhergesagt wird, ist ein genaueres Experiment ein strengerer Test der zugrunde liegenden Theorie. Wenn die Nullhypothese standardmäßig "kein Unterschied" oder "kein Effekt" ist, ist ein genaueres Experiment ein weniger strenger Test der Theorie, die die Durchführung des Experiments motiviert hat. Eine Untersuchung der Ursprünge der letztgenannten Praxis kann daher nützlich sein:

1778: Pierre Laplace vergleicht die Geburtenraten von Jungen und Mädchen in mehreren europäischen Städten. Er führt aus: "Es liegt auf der Hand, dass diese Möglichkeiten nahezu im gleichen Verhältnis stehen". So ist Laplace's Nullhypothese, dass die Geburtenraten von Jungen und Mädchen bei "konventioneller Weisheit" gleich sein sollten.

1900: Karl Pearson entwickelt den Chi-Quadrat-Test, um zu bestimmen, "ob eine gegebene Form der Frequenzkurve die aus einer gegebenen Population gezogenen Proben effektiv beschreibt". Die Nullhypothese lautet also, dass eine Population durch eine theoretisch vorhergesagte Verteilung beschrieben wird. Er verwendet als Beispiel die Zahlen fünf und sechs in den Würfelwurfdaten von Weldon.

1904: Karl Pearson entwickelt das Konzept der "Kontingenz", um festzustellen, ob die Ergebnisse von einem bestimmten kategorialen Faktor unabhängig sind. Hier lautet die Nullhypothese standardmäßig, dass zwei Dinge nicht miteinander zusammenhängen (z. B. Narbenbildung und Sterblichkeitsraten bei Pocken). Die Nullhypothese wird in diesem Fall nicht mehr durch Theorie oder konventionelle Weisheit vorhergesagt, sondern ist das Prinzip der Gleichgültigkeit, das Fisher und andere dazu veranlasst, die Verwendung von "inversen Wahrscheinlichkeiten" abzulehnen.

Obwohl einer Person die Ablehnung einer Nullhypothese zugeschrieben wird, halte ich es nicht für angemessen, sie als " Entdeckung der Skepsis aufgrund einer schwachen mathematischen Position" zu bezeichnen.


Ich habe die Arbeit von Daniel Bernoulli (zweite Ausgabe ist 1808 , aber die Arbeit selbst ist von 1734) aufzublicken „RECHERCHES PHYSYQUES ET astronomiques, sur le problème proposé pour la seconde fois par l'Académie Royale des Sciences de Paris: Quelle est la Ursache des Aufbaus der Pläne für die Umlaufbahn des Planes für den Bericht über den Plan der Umlaufbahn des Soleil-Autors und des Aufbaus der verschiedenen Umlaufbahnen . ch / zut / wihibe / content / titleinfo / 13426461
Sextus Empiricus

1:175
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.