In der Lehre angewandter Disziplinen wie der Medizin ist verankert, dass Messungen bio-medizinischer Mengen in der Bevölkerung einer normalen "Glockenkurve" folgen. Eine Google-Suche der Zeichenfolge "Wir haben eine Normalverteilung angenommen" liefert Ergebnisse! Sie klingen wie "angesichts der geringen Anzahl extremer Datenpunkte haben wir in einer Studie zum Klimawandel eine Normalverteilung für die Temperaturanomalien angenommen" ; oder "wir haben eine normale Verteilung der Brutdaten von Küken angenommen" in einem möglicherweise weniger umstrittenen Dokument über Pinguine; oder "wir haben eine Normalverteilung der BIP-Wachstumsschocks angenommen" ,, ... Und andere Dinge).
Vor kurzem stellte ich die Behandlung von Zähldaten als normalverteilt in Frage, da diese streng positiv sind. Natürlich sind die Zähldaten diskret, was ihre Normalität umso künstlicher macht. Aber selbst wenn man diesen letzteren Punkt beiseite lässt, warum sollten kontinuierliche empirische Messungen wie Gewicht, Größe oder Konzentration von Glucose, die als prototypisch "kontinuierlich" angesehen werden, als normal angesehen werden? Sie können nicht mehr negativ realisierte Beobachtungen haben als Zählungen!
Ich verstehe, dass wenn die Standardabweichung wesentlich niedriger als der Mittelwert ist und nur wenige negative Werte anzeigt ("95% Range Check"), dies eine praktische Annahme sein kann und Frequenzhistogramme dies unterstützen können, wenn sie nicht zu schief sind. Aber die Frage schien nicht trivial zu sein, und eine schnelle Suche ergab interessante Dinge.
In Nature finden wir die folgende Aussage in einem Brief von DF Heath : "Ich möchte darauf hinweisen, dass für die statistische Analyse bestimmter Datentypen die Annahme, dass die Daten aus einer normalen Population stammen, normalerweise falsch ist und dass die Alternative Die Annahme einer logarithmischen Normalverteilung ist besser. Diese Alternative wird häufig von Statistikern, Ökonomen und Physikern verwendet, wird jedoch aus irgendeinem Grund von Wissenschaftlern anderer Disziplinen häufig ignoriert. "
Limpert merkt an, dass "das logarithmische Normalmodell als Annäherung in dem Sinne dienen kann, dass viele Wissenschaftler die Normalität jetzt als gültige Annäherung wahrnehmen" , während er die geringe Leistung von Anpassungstests der Normalität und die Schwierigkeit bei der Auswahl feststellt die richtige Verteilung empirisch im Umgang mit kleinen Proben.
Daher lautet die Frage: "Wann ist es akzeptabel, eine Normalverteilung einer empirischen Messung in den angewandten Wissenschaften ohne weitere unterstützende Beweise anzunehmen?" Und warum haben andere Alternativen, wie die logarithmische Normalität, dies nicht und werden es wahrscheinlich auch nicht tun?