Wie haben Wissenschaftler die Form der Normalverteilungswahrscheinlichkeitsdichtefunktion herausgefunden?


36

Dies ist wahrscheinlich eine Amateurfrage, aber ich bin daran interessiert, wie die Wissenschaftler auf die Form der Normalverteilungswahrscheinlichkeitsdichtefunktion gekommen sind. Was mich im Grunde stört, ist, dass es für jemanden vielleicht intuitiver ist, wenn die Wahrscheinlichkeitsfunktion normalverteilter Daten eher die Form eines gleichschenkligen Dreiecks als eine Glockenkurve hat, und wie würden Sie einer solchen Person beweisen, dass die Wahrscheinlichkeitsdichtefunktion von Alle normalverteilten Daten haben eine Glockenform. Durch experimentieren? Oder durch eine mathematische Ableitung?

Was betrachten wir eigentlich als normalverteilte Daten? Daten, die dem Wahrscheinlichkeitsmuster einer Normalverteilung folgen, oder etwas anderes?

Grundsätzlich ist meine Frage, warum die Normalverteilungswahrscheinlichkeitsdichtefunktion eine Glockenform hat und keine andere? Und wie haben Wissenschaftler herausgefunden, auf welche realen Szenarien sich die Normalverteilung anwenden lässt, indem sie experimentieren oder die Natur verschiedener Daten selbst untersuchen?


Ich fand diesen Link also sehr hilfreich, um die Herleitung der Funktionsform der Normalverteilungskurve zu erklären und damit die Frage zu beantworten: "Warum sieht die Normalverteilung so aus und nicht anders?". Wirklich umwerfendes Denken, zumindest für mich.


2
Schauen Sie sich diese Frage an - es ist nicht richtig zu behaupten, dass nur die Normalverteilung "glockenförmig" ist.
Silberfischchen

11
Die Normalverteilung hat einige überaus wichtige statistische Eigenschaften, die sie zu einem besonderen Untersuchungsgegenstand machen und dazu führen, dass sie häufig "natürlich" auftritt, z. B. als Grenzfall für andere Verteilungen. Siehe insbesondere den zentralen Grenzwertsatz . Es ist jedoch nicht die einzige Verteilung, die in der Mitte Spitzen aufweist und auf beiden Seiten Schwänze aufweist. Man geht oft davon aus, dass solche Daten normal sind, weil das Histogramm "glockenförmig aussieht", aber meine verknüpfte Antwort zeigt, wie viele andere Verteilungskandidaten für solche Datensätze existieren.
Silberfischchen

4
Beachten Sie, dass Statistiker die Normalverteilung nicht durch Betrachten vieler Datensätze entdeckt haben und die Feststellung, dass diese Dichtefunktion empirisch für viele von ihnen gut geeignet war. Wie Sie sich in Ihrer Frage fragen, gab es einen mathematischen Untersuchungsprozess zu bestimmten Problemen der Wahrscheinlichkeitstheorie, auf den die Normalverteilung als Antwort "herausspringt". Dies ist zB in dieser Antwort hier gut erklärt .
Silberfischchen

3
Und wenn mich jemand fragen würde, warum die Normalverteilung "normal" ist, müsste ich ihnen die Geschichte der Normalverteilung erklären, die an sich langwierig und komplex ist, beginnend mit der Binomialverteilung und so weiter, und dann vielleicht beweisen Sie den zentralen Grenzwertsatz und zeigen Sie, dass die Normalverteilung bei der Untersuchung vieler Situationen im wirklichen Leben anwendbar ist.
Ahra

5
Sie können die Form einer Normalverteilung mit einem dieser raffinierten Geräte , den Galton-Boards, darstellen. Eigentlich ist das eine Binomialverteilung, aber Sie wissen, zentraler Grenzwertsatz.
Federico Poloni

Antworten:


21

" Die Evolution der Normalverteilung " von SAUL STAHL ist die beste Informationsquelle, um so ziemlich alle Fragen in Ihrem Beitrag zu beantworten. Ich werde ein paar Punkte nur zur Vereinfachung vortragen, da Sie die ausführliche Diskussion im Artikel finden.

Dies ist wahrscheinlich eine Amateurfrage

Nein, es ist eine interessante Frage für jeden, der Statistiken verwendet, da dies in Standardkursen nirgendwo im Detail behandelt wird.

Was mich im Grunde stört, ist, dass es für jemanden vielleicht intuitiver ist, wenn die Wahrscheinlichkeitsfunktion normalverteilter Daten eher die Form eines gleichschenkligen Dreiecks als eine Glockenkurve hat, und wie würden Sie einer solchen Person beweisen, dass die Wahrscheinlichkeitsdichtefunktion von Alle normalverteilten Daten haben eine Glockenform.

Schauen Sie sich dieses Bild aus dem Papier an. Es zeigt die Fehlerkurven, die Simpson vor der Entdeckung von Gauß (Normal) zur Analyse experimenteller Daten erstellt hat. Ihre Intuition ist also genau richtig.

Bildbeschreibung hier eingeben

Durch experimentieren?

Ja, deshalb wurden sie "Fehlerkurven" genannt. Das Experiment bestand aus astronomischen Messungen. Astronomen hatten jahrhundertelang mit Messfehlern zu kämpfen.

Oder durch eine mathematische Ableitung?

Wieder JA! Kurz gesagt: Die Analyse von Fehlern in astronomischen Daten führte Gauss zu seiner (auch als Normal bezeichneten) Verteilung. Dies sind die Annahmen, die er verwendet hat:

Bildbeschreibung hier eingeben

Übrigens hat Laplace ein paar verschiedene Ansätze verwendet und auch seine Distribution entwickelt, während er mit astronomischen Daten arbeitete:

Bildbeschreibung hier eingeben

Um herauszufinden, warum die Normalverteilung im Experiment Messfehler darstellt, wird hier ein typischer "handwelliger" Erklärungsphysiker verwendet (ein Zitat von Gerhard Böhm, Günter Zech, Einführung in die Statistik und Datenanalyse für Physiker, S. 85):

Viele experimentelle Signale folgen in sehr guter Näherung einer Normalverteilung. Dies ist darauf zurückzuführen, dass sie aus der Summe vieler Beiträge und einer Folge des zentralen Grenzwertsatzes bestehen.


2
Die Stahl-Referenz behandelt die ursprüngliche Frage sehr genau aus dem Blickwinkel, aus dem sie gestellt wurde - das ist ein wirklich schöner Fund.
Silverfish

44

Sie scheinen in Ihrer Frage anzunehmen, dass es das Konzept der Normalverteilung gab, bevor die Verteilung identifiziert wurde, und die Leute versuchten herauszufinden, was es war. Mir ist nicht klar, wie das funktionieren würde. [Bearbeiten: Es gibt mindestens einen Sinn, den wir für eine "Suche nach einer Distribution" halten könnten, aber nicht "eine Suche nach einer Distribution, die viele, viele Phänomene beschreibt"]

Das ist nicht der Fall; Die Verteilung war bekannt, bevor sie als Normalverteilung bezeichnet wurde.

Wie würden Sie einer solchen Person beweisen, dass die Wahrscheinlichkeitsdichtefunktion aller normalverteilten Daten eine Glockenform hat?

Die Normalverteilungsfunktion ist das, was üblicherweise als "Glockenform" bezeichnet wird - alle Normalverteilungen haben dieselbe "Form" (in dem Sinne, dass sie sich nur in Maßstab und Lage unterscheiden).

Daten können in der Verteilung mehr oder weniger "glockenförmig" aussehen, aber das macht es nicht normal. Viele nicht normale Verteilungen sehen ähnlich "glockenförmig" aus.

Die tatsächlichen Bevölkerungsverteilungen, aus denen die Daten stammen, sind wahrscheinlich nie normal, obwohl dies manchmal eine vernünftige Annäherung ist.

Dies gilt normalerweise für fast alle Distributionen, die wir auf Dinge in der realen Welt anwenden - es sind Modelle , keine Fakten über die Welt. [Wenn wir beispielsweise bestimmte Annahmen treffen (für einen Poisson-Prozess), können wir die Poisson-Verteilung ableiten - eine weit verbreitete Verteilung. Aber sind diese Annahmen jemals genau erfüllt? Im Allgemeinen ist das Beste, was wir (in den richtigen Situationen) sagen können, dass sie nahezu wahr sind.]

Was betrachten wir eigentlich als normal verteilte Daten? Daten, die dem Wahrscheinlichkeitsmuster einer Normalverteilung folgen, oder etwas anderes?

Ja, um tatsächlich normal verteilt zu sein, müsste die Population, aus der die Stichprobe gezogen wurde, eine Verteilung haben, die die genaue funktionale Form einer Normalverteilung aufweist. Folglich kann keine endliche Population normal sein. Variablen, die notwendigerweise begrenzt sind, können nicht normal sein (zum Beispiel können Zeiten, die für bestimmte Aufgaben benötigt werden, Längen bestimmter Dinge nicht negativ sein, sodass sie nicht normal verteilt werden können).

Es wäre vielleicht intuitiver, wenn die Wahrscheinlichkeitsfunktion normalverteilter Daten die Form eines gleichschenkligen Dreiecks hätte

Ich verstehe nicht, warum dies notwendigerweise intuitiver ist. Es ist sicherlich einfacher.

Bei der ersten Entwicklung von Modellen für Fehlerverteilungen (speziell für die Astronomie in der frühen Phase) haben Mathematiker verschiedene Formen in Bezug auf Fehlerverteilungen (einschließlich einer dreieckigen Verteilung an einem frühen Punkt) in Betracht gezogen als Intuition), die verwendet wurde. Laplace untersuchte zum Beispiel doppelte Exponential- und Normalverteilungen (unter anderem). In ähnlicher Weise verwendete Gauß die Mathematik, um sie ungefähr zur gleichen Zeit abzuleiten, jedoch in Bezug auf andere Überlegungen als Laplace.

In dem engen Sinne, dass Laplace und Gauss "Fehlerverteilungen" in Betracht zogen, könnte man zumindest zeitweise von einer "Suche nach einer Verteilung" sprechen. Beide postulierten einige Eigenschaften für eine Verteilung von Fehlern, die sie für wichtig hielten (Laplace betrachtete eine Abfolge von etwas unterschiedlichen Kriterien im Zeitverlauf), was zu unterschiedlichen Verteilungen führte.

Grundsätzlich ist meine Frage, warum die Normalverteilungswahrscheinlichkeitsdichtefunktion eine Glockenform hat und keine andere?

Die funktionale Form des Dings, die als normale Dichtefunktion bezeichnet wird, gibt ihm diese Form. Betrachten Sie die Standardnormale (der Einfachheit halber hat jede andere Norm die gleiche Form und unterscheidet sich nur in Maßstab und Position):

fZ(z)=ke12z2;<z<

k

x

Während einige Leute die Normalverteilung als "normal" angesehen haben, neigen Sie sogar dazu, sie nur in bestimmten Situationen als Annäherung zu betrachten.


Die Entdeckung der Verteilung wird normalerweise de Moivre gutgeschrieben (als Annäherung an das Binom). Tatsächlich leitete er die funktionale Form ab, wenn er versuchte, Binomialkoeffizienten (/ Binomialwahrscheinlichkeiten) zu approximieren, um ansonsten mühsame Berechnungen anzunähern, aber obwohl er die Form der Normalverteilung effektiv ableitet, scheint er nicht über seine Approximation als gedacht zu haben Wahrscheinlichkeitsverteilung, obwohl einige Autoren vorschlagen, dass er tat. Eine gewisse Interpretation ist erforderlich, damit bei dieser Interpretation Unterschiede möglich sind.

Gauß und Laplace arbeiteten Anfang des 19. Jahrhunderts daran. Gauß schrieb 1809 darüber (in Verbindung damit, dass es die Verteilung ist, für die der Mittelwert der MLE des Zentrums ist) und Laplace 1810, als Annäherung an die Verteilung der Summen symmetrischer Zufallsvariablen. Ein Jahrzehnt später liefert Laplace eine frühe Form des zentralen Grenzwertsatzes für diskrete und für kontinuierliche Variablen.

Frühe Bezeichnungen für die Verteilung beinhalten das Fehlergesetz , das Gesetz der Fehlerhäufigkeit und es wurde auch nach Laplace und Gauss benannt, manchmal gemeinsam.

Der Begriff "normal" wurde verwendet, um die Verteilung von drei verschiedenen Autoren in den 1870er Jahren (Peirce, Lexis und Galton) unabhängig zu beschreiben, der erste 1873 und die beiden anderen 1877. Dies ist mehr als sechzig Jahre nach der Arbeit von Gauss und Laplace und mehr als doppelt so viel wie seit de Moivres Annäherung. Galtons Gebrauch davon war wahrscheinlich am einflussreichsten, aber er verwendete den Begriff "normal" in Bezug darauf nur einmal in diesem 1877-Werk (meistens nannte es "das Gesetz der Abweichung").

In den 1880er Jahren verwendete Galton jedoch das Adjektiv "normal" in Bezug auf die Verteilung mehrfach (z. B. als "normale Kurve" im Jahr 1889), und er hatte wiederum großen Einfluss auf spätere Statistiker in Großbritannien (insbesondere Karl Pearson) ). Er sagte nicht, warum er den Begriff "normal" auf diese Weise benutzte, sondern meinte ihn vermutlich im Sinne von "typisch" oder "üblich".

Die erste explizite Verwendung des Ausdrucks "Normalverteilung" scheint von Karl Pearson zu sein; er benutzt es sicherlich im Jahr 1894, obwohl er behauptet, es schon lange zuvor benutzt zu haben (eine Behauptung, die ich mit einiger Vorsicht betrachten würde).


Verweise:

Miller, Jeff
"Frühester bekannter Gebrauch einiger Wörter der Mathematik:"
Normalverteilung (Eintrag von John Aldrich)
http://jeff560.tripod.com/n.html

Stahl, Saul (2006),
"Die Evolution der Normalverteilung",
Mathematics Magazine , Vol. 79, No. 2 (April), S. 96-113
https://www.maa.org/sites/default/files/pdf/upload_library/22/Allendoerfer/stahl96.pdf

Normalverteilung, (2016, 1. August).
In Wikipedia, der freien Enzyklopädie.
Abgerufen am 03.08.2016 um 12:02 Uhr von
https://en.wikipedia.org/w/index.php?title=Normal_distribution&oldid=732559095#History

Hald, A (2007),
"De Moivres normale Annäherung an das Binom, 1733 und seine Verallgemeinerung",
In: Eine Geschichte der parametrischen statistischen Inferenz von Bernoulli bis Fisher, 1713–1935; S. 17-24

[Sie können erhebliche Abweichungen zwischen diesen Quellen in Bezug auf ihre Darstellung von de Moivre feststellen]


Vielen Dank für die ausführliche Antwort! Ich habe weiter untersucht, wie die Form der Normalverteilung abgeleitet wurde, und ich habe dieses Dokument courses.ncssm.edu/math/Talks/PDFS/normal.pdf gefunden , und ich habe ein Problem damit, zu verstehen, wie wir davon ausgehen können, dass die Fehler hängen nicht von der Ausrichtung des Koordinatensystems ab (eine Annahme, die später eine wichtige Schlussfolgerung zulässt), wenn ich der Meinung bin, dass eine solche Annahme nur am Beispiel von Pfeilen zutrifft, nicht jedoch am Beispiel von zufälligen Versuchsfehlern .
Ahra

Eigentlich verwirrt mich der ganze Dart-Ansatz, da ich die Normalverteilung im Zusammenhang mit zufälligen experimentellen Fehlern studiere. Ich vermute, dass der Dart-Ansatz davon ausgeht, dass Sie unabhängige Fehler in zwei Dimensionen machen können, was im verwendeten Kontext in Ordnung ist, aber mir unklar ist, was dies im Kontext experimenteller Fehler bedeuten würde, bei denen Sie eine abhängige und eine unabhängige Variable haben Dies bedeutet, dass Sie nur in einer Dimension einen Fehler machen können.
Ahra

1
Gute Verwendung von Referenzen. +1
Aaron Hall

2
Ich denke, "zentraler Grenzwertsatz" sollte hier irgendwo erwähnt werden, da das OP (zumindest teilweise) zu fragen scheint, warum diese bestimmte Verteilung so verbreitet ist.
joc

1
@joc Ich sehe die Frage nicht, die nach der Prävalenz fragt oder auch nur eine Frage dazu vorschlägt. Ich spreche jedoch über die Arbeit von de Moivre in Bezug auf das Binom und über Laplace in Bezug auf normale Näherungen für Summen symmetrischer Zufallsvariablen ... die direkter mit der Frage zusammenhängen. Ich werde jedoch einen Satz hinzufügen, der sich auf Laplace's Arbeit zu diesem Problem bezieht (obwohl man es für ein weiteres Jahrhundert nicht so nennen würde).
Glen_b

11

Die „normale“ Verteilung ist definiert , dass bestimmte Verteilung zu sein.

Die Frage ist, warum wir erwarten würden, dass diese bestimmte Verteilung in der Natur verbreitet ist, und warum wird sie so oft als Annäherung verwendet, selbst wenn die tatsächlichen Daten nicht genau dieser Verteilung folgen? (Es wird häufig festgestellt, dass reale Daten einen "fetten Schwanz" haben, dh Werte, die weit vom Mittelwert entfernt sind, sind viel häufiger als die normale Verteilung vorhersagen würde).

Was ist anders ausgedrückt das Besondere an der Normalverteilung?

Die Norm hat viele "nette" statistische Eigenschaften (siehe zB https://en.wikipedia.org/wiki/Central_limit_theorem ), aber die relevanteste IMO ist die Tatsache, dass die "maximale Entropiefunktion" für jede Verteilung mit ein gegebener Mittelwert und Varianz. https://en.wikipedia.org/wiki/Maximum_entropy_probability_distribution

Um dies in gewöhnlicher Sprache auszudrücken, müssen Sie eine Normalverteilung zeichnen, wenn Sie nur den Mittelwert (Mittelpunkt) und die Varianz (Breite) einer Verteilung angeben und davon nichts anderes annehmen. Alles andere erfordert zusätzliche Informationen (im Sinne der Shannon-Informationstheorie ), zum Beispiel Schiefe, um sie zu bestimmen.

Das Prinzip der maximalen Entropie wurde von ET Jaynes eingeführt, um vernünftige Prioritäten in der Bayes'schen Folgerung zu bestimmen, und ich denke, er war der erste, der auf diese Eigenschaft aufmerksam machte.

Weitere Informationen finden Sie hier: http://www.inf.fu-berlin.de/inst/ag-ki/rojas_home/documents/tutorials/Gaussian-distribution.pdf


6
"Mit anderen Worten, wenn Sie nur den Mittelwert (Mittelpunkt) und die Varianz (Breite) einer Verteilung erhalten und nichts anderes davon ausgehen, werden Sie gezwungen sein, eine Normalverteilung zu zeichnen." Ich denke, das hängt davon ab, was die Definition von "gezwungen" ist. Sie können gezwungen werden. Ich würde nicht sein. Was Sie beschrieben haben, ist das moralische Äquivalent dazu, "gezwungen" zu sein, eine Funktion als linear anzunehmen, wenn Sie ihre Form nicht kennen, oder dass Zufallsvariablen unabhängig sind, wenn Sie ihre genaue Abhängigkeit nicht kennen. Ich habe nicht, bin nicht und werde nicht gezwungen sein, eine dieser Annahmen zu treffen.
Mark L. Stone

5
@Neil Ich glaube, ein Teil von Marks Argument kann sein, dass Rechtfertigung kein Zwang ist.
Whuber

5
@Neil Weit davon entfernt! Zunächst müssen Sie davon ausgehen, dass das Prinzip der maximalen Entropie für Ihr statistisches Problem nützlich und anwendbar ist. Als nächstes müssen Sie absolut sicher sein, dass es nichts anderes gibt, was Sie über die Verteilung annehmen können. Beides ist problematisch. (Bei den meisten statistischen Problemen, auf die ich gestoßen bin - außerhalb des Bereichs der theoretischen Physik - war das erstere nicht wahr, und ich habe noch nie ein Problem in der realen Welt gesehen, bei dem das letztere der Fall ist.)
whuber

1
@ Neil Mark und whuber. Ich habe versucht, diesen Absatz zu verdeutlichen. Ich denke, "nimm nichts anderes an" ist eine vernünftige gewöhnliche Erklärung dessen, was das Prinzip der maximalen Entropie zu tun versucht. Als gewöhnliche Sprache könnte man sie natürlich anders interpretieren. Deshalb brauchen wir die Mathematik. Die genauere Aussage ist, dass wir keine Informationen im Sinne von Shannon hinzufügen. Die Links erklären dies weiter.
Gareth

1
@gareth Eine gleichmäßige Verteilung auf alle Reals (was Sie in Ihrem letzten Kommentar wohl gemeint haben) wäre eine höchst ungeeignete Verteilung. Ihr Anspruch auf maximale Entropie als Treiber für eine Normalverteilung ist eine wichtige Annahme. warum ist es nicht schlagkräftiger, als etwas anderes anzunehmen, wie die minimale Reichweite?
Henry

3

Die Normalverteilung (auch bekannt als " Gaußsche Verteilung ") hat eine solide mathematische Grundlage. Der zentrale Grenzwertsatz besagt, dass, wenn Sie eine endliche Menge von n unabhängigen und identisch verteilten Zufallsvariablen mit einem bestimmten Mittelwert und einer bestimmten Varianz haben und den Durchschnitt dieser Zufallsvariablen nehmen, die Verteilung des Ergebnisses zu einer Gaußschen Verteilung als n konvergiert geht bis ins Unendliche. Hier gibt es keine Vermutungen, da die mathematische Herleitung zu dieser spezifischen Verteilungsfunktion und zu keiner anderen führt.

Um dies greifbarer zu machen, betrachten Sie eine einzelne Zufallsvariable, z. B. das Werfen einer fairen Münze (2 gleichermaßen mögliche Ergebnisse). Die Wahrscheinlichkeit, ein bestimmtes Ergebnis zu erzielen, beträgt 1/2 für Kopf und 1/2 für Zahl.

Wenn Sie die Anzahl der Münzen erhöhen und die Gesamtzahl der mit jedem Versuch erhaltenen Köpfe verfolgen, erhalten Sie eine Binomialverteilung , die ungefähr die Form einer Glocke hat. Zeichnen Sie einfach die Anzahl der Köpfe entlang der x-Achse und wie oft Sie so viele Köpfe entlang der y-Achse gespiegelt haben.

Je mehr Münzen Sie verwenden und je öfter Sie die Münzen umwerfen, desto näher kommt der Graph dem Aussehen einer Gaußschen Glockenkurve. Das ist es, was der zentrale Grenzwertsatz behauptet.

Das Erstaunliche ist, dass der Satz nicht davon abhängt, wie die Zufallsvariablen tatsächlich verteilt sind, solange jede der Zufallsvariablen dieselbe Verteilung hat. Eine Schlüsselidee in dem Theorem ist, dass Sie die Zufallsvariablen addieren oder mitteln . Ein weiteres Schlüsselkonzept ist, dass der Satz die mathematische Grenze beschreibt , wenn die Anzahl der Zufallsvariablen immer größer wird. Je mehr Variablen Sie verwenden, desto näher nähert sich die Verteilung einer Normalverteilung.

Ich empfehle Ihnen, einen Kurs in Mathematischer Statistik zu belegen, wenn Sie sehen möchten, wie Mathematiker festgestellt haben, dass die Normalverteilung tatsächlich die mathematisch korrekte Funktion für die Glockenkurve ist.


Danke für Ihren Beitrag. Es wäre richtig, wenn Sie erklären würden, dass die Verteilung der Summe (oder des Mittelwerts) standardisiert werden muss. Andernfalls nähert sich die Verteilung der Summe keiner Grenze und die Verteilung des Mittelwerts einer Konstanten. Aber wie beantwortet dieser Beitrag die gestellten Fragen? (Zugegeben, es werden verschiedene Fragen gestellt und sie sind alle verwirrt und vage, aber sie scheinen sich zu fragen, wie die Formel für das Gaußsche PDF entdeckt oder abgeleitet wurde.)
whuber

2

Es gibt einige ausgezeichnete Antworten auf diesen Thread. Ich kann nicht anders, als das Gefühl zu haben, dass der OP nicht die gleiche Frage stellte, die jeder beantworten möchte. Ich verstehe das jedoch, weil dies beinahe eine der aufregendsten Fragen ist, die es zu beantworten gilt. Ich habe es tatsächlich gefunden, weil ich gehofft hatte, jemand hätte die Frage "Woher wissen wir, dass das normale PDF ein PDF ist?" und ich habe danach gesucht. Aber ich denke, die Antwort auf die Frage könnte darin bestehen, den Ursprung der Normalverteilung aufzuzeigen.

nnnpnp(1p)n

np0np=1

n=10p=0.5n=100p=0.5n

Wenn ich jetzt 100 Münzen auf den Boden lege und zähle, wie viele Köpfe ich bekomme, zähle ich vielleicht 0 Köpfe oder ich zähle vielleicht 100 Köpfe, aber ich zähle viel wahrscheinlicher eine Zahl irgendwo dazwischen. Sehen Sie, warum dieses Histogramm glockenförmig sein sollte?


+1 - Beachten Sie jedoch, dass ich in mehreren Teilen meiner Antwort auf de Moivre eingehen werde. Vielleicht finden Sie die letzte Bemerkung in meiner Antwort in Bezug auf die Diskrepanzen in den Referenzen interessant - es lohnt sich, tatsächlich zu betrachten, was de Moivre geschrieben hat, um zu sehen, inwieweit die verschiedenen Charakterisierungen seiner Arbeit Bestand zu haben scheinen. Spezifische Diskussionen darüber, warum die Binomial-Cdf unter geeigneten Bedingungen durch eine normale Cdf gut angenähert wird, finden Sie unter Warum ist eine Binomial-Verteilung glockenförmig?
Glen_b

1

Erwähnen würde auch Maxwell-Herschel-Ableitung der unabhängigen multivariaten Normalverteilung aus zwei Annahmen:

  1. Die Verteilung wird durch die Drehung des Vektors nicht beeinflusst.

  2. Komponenten des Vektors sind unabhängig.

Hier ist die Ausstellung von Jaynes

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.