Ist die Zahl 20 Magie?


12

Ich habe Referenzen, die empfohlen haben, eine Stichprobengröße von mindestens 20 für die Verteilung von Datenanpassungen zu berücksichtigen.

Hat das einen Sinn?

Vielen Dank


3
Im Allgemeinen nein, in bestimmten Situationen vielleicht. Haben Sie die Referenzen und was sind Ihre Ziele?
image_doctor

1
Ich stimme @image_doctor zu - es gibt keinen allgemeinen Grund, warum 20 Beobachtungen als Minimum angesehen werden sollten; Dies kann unter ganz bestimmten Umständen der Fall sein.
Glen_b -Reinstate Monica

3
Ein einzelner Wert funktioniert in einigen praktischen Fällen, z. B. wenn bekannt ist, dass die Verteilung (mit Sicherheit) Poisson ist und die Beobachtung eine große Zahl ist. Dies ermöglicht nicht nur die Anpassung der Verteilung, sondern auch die Beurteilung des wahrscheinlichen Fehlers bei der Schätzung seines Parameters.
Whuber

1
Ich glaube, ich habe auch gelesen, dass für Normalverteilungen 30 die Faustregel ist. Mir scheint, es hing damit zusammen, wie nahe ein Student mit 30 Freiheitsgraden am Normalen ist. Aber es ist nur eine Faustregel. Es ist keine Magie im gleichen Sinne wie der Wert von . e
Wayne

1

Antworten:


13

Wie viel davon abhängt, hängt von der erwarteten Verbreitung und Ihrer Forschungsfrage ab. Als Faustregel sollten Sie sich vor Faustregeln hüten. Wenn Sie die erwartete Verteilung kennen, führen Sie einige Simulationen unterschiedlicher Größe durch und bestimmen Sie, wie oft die Beispielsimulationen die tatsächliche Verteilung widerspiegeln. Dies sollte Ihnen als endgültige Stichprobengröße eine Orientierungshilfe geben.


+1 um extreme und dogmatische Aussagen zu vermeiden.
Whuber

1
+1 zum Teil aufgrund von "Als Faustregel sollten Sie vorsichtig mit Faustregeln sein."
Wolfgang

7

Ich dachte, die magische Zahl der Stichprobengröße ist 1.000. Das ist es, was die meisten nationalen US-Umfragen haben, um eine Fehlerquote von etwa 3% zu erzielen: In der Realität sind die effektiven Stichprobengrößen aufgrund der ungleichen Auswahlwahrscheinlichkeit und der Nichtantwortanpassungen niedriger als 1000, was zu einer Fehlerquote von 3,7% führt. .

z0.9750.50.5/1000=1.960.158=0.031

Mit nur 20 Beobachtungen können Sie technisch keine sehr hohen Werte für Schiefe und Kurtosis erhalten (natürlich normalisiert durch die Standardabweichungen der Stichprobe): Wenn Sie eine Verteilung nach der Methode der Momente anpassen, können Sie offensichtlich keine logarithmische Normalverteilung mit einer einigermaßen typischen Varianz von logarithmischen Werten von 1 (Einkommensverteilungen in Ländern mit mittlerer bis hoher Einkommensungleichheit; USA, Brasilien, Südafrika, Russland hat alle eine höhere Varianz der Log-Income), da es eine überraschend große Kurtosis von 111 hat. Natürlich wäre es dumm, eine Log-Normalverteilung nach der Methode der Momente anzupassen, aber ich wollte nur zeigen, dass einige reale Weltverteilungen dies tun werden wahrscheinlich komplizierter als das, was mit 20 Beobachtungen beschrieben werden kann.

|skewness|n2n1=4.58,|kurtosis|n23n+3n1=18.05.

Ein weiterer Blick auf Verteilungsanpassung kann durch Kerndichteschätzung getroffen werden: für die Stichprobe der Größe , die beliebteste Regel gibt die Bandbreite von h = 1,06 σ n - 1 / 5 = 0,58 σ , die effektiv die gesamte Verteilung umspannt mit dem Gaußschen Kernel. Mit anderen Worten, die meisten Stichproben der Größe 20 sehen normal aus, wenn Sie eine Schätzung der Kerneldichte durchführen, es sei denn, sie weisen eindeutig eine nennenswerte Kurtosis auf (was dann bedeuten würde, dass es einige äußerliche Beobachtungen gibt, die als separate Unebenheiten der Kerneldichte angezeigt werden Handlung).n=20

h=1.06σ^n1/5=0.58σ^

ms(s/m)(3+(s/m)2)202
Whuber

1
Obligatorischer Link zum "Power-of-Ten-Syndrom" im Zusammenhang mit der Verwendung von 1000 als Stichprobengröße (im Zusammenhang mit Statistiken zur Programmierung, gilt jedoch an anderer Stelle): zedshaw.com/essays/programmer_stats.html
Gary S. Weaver

1
@whuber, du bist viel zu schlau, nichts für ungut. Die meisten Leute würden die Schiefe als den Moment der Daten berechnen, nicht durch eine parametrische Annahme, wie Sie es gerade getan haben. Wenn ich nun sagte: "Angenommen, Sie passen eine Pearson-Verteilung nach Momentenmethode an", wäre dieses Argument dann relevant?
StasK

Ja, das wäre in vielen Fällen relevant. Ich bin Ihrem Vorschlag gefolgt, eine logarithmische Verteilung mit der Methode der Momente anzupassen, und habe eine große Schiefe erhalten - keine Überraschung. Das liegt daran, dass ich nur die ersten beiden Momente abgeglichen habe und den dritten so lassen, wie es sein mag. Wenn ich dieselbe Prozedur mit einer Verteilungsfamilie von zwei oder weniger Parametern befolgen würde, die willkürlich große dritte Momente zulässt, würde ich das gleiche Phänomen sehen. Mit der Pearson-Familie, die mehr als zwei Parameter hat, würden wir wahrscheinlich versuchen, die empirische Schiefe zu erreichen und dadurch ihren Wert zu begrenzen.
Whuber

2

Nee. Nicht aus der Ferne.

Stellen Sie sich das so vor: Wenn Sie einen milliardengroßen Raum (Menschheit) hätten und 20 Proben mit welcher Methode auch immer (20 Personen) entnommen hätten, könnten Sie die gewonnenen Informationen verwenden, um jeden Menschen auf dem Planeten einigermaßen gut zu verstehen? Nicht aus der Ferne. Es gibt 100 Milliarden Sterne in der Milchstraße. Wenn Sie (zufällig) 20 davon auswählen, können Sie dann die gesamte galaktische Astronomie verstehen? Auf keinen Fall.

In einem 1-D-Raum gibt es einige Heuristiken, meistens gültige Faustregeln, die helfen können, um zu beschreiben, wie viele Messungen Sie durchführen möchten. Sie beinhalten unterschiedliche Grade an Nützlichkeit und Rechtfertigung, sind aber in gewissem Sinne besser verteidigt als "20". Dazu gehören "5 Messungen pro Variable in Ihrer Anpassungsgleichung", "mindestens 35 Abtastwerte einer Gaußschen Dichtefunktion" und "mindestens 300 Abtastwerte einer Binomialfunktion". Echte Statistiker und kein Streber wie ich werden in der Lage sein, bestimmte Konfidenzintervalle und Unsicherheiten anhand erster Prinzipien und ohne Taschenrechner zuzuordnen.

Wenn Sie die Regel "5 Messungen pro Parameter in Ihrer Anpassungsgleichung" verwenden und die kumulative Dichte einer zweidimensional gekrümmten bikubischen Oberfläche in Bezug auf die Höhenverteilung anpassen möchten, erhalten Sie ein zugrunde liegendes System a3r3+a2r2+a1r+a0a1r+a0dr

Denken Sie bitte daran, dass "best" eine sinnlose Idee ist, ohne ein "Maß an Güte" zu haben. Was ist der beste Weg? Wenn Sie zu Ihrem Schicksal gehen, möglicherweise ein extrem langes und angenehmes. Wenn Sie zu Ihrer eigenen Krönung gehen, vielleicht eine kurze und großartige. Wenn du durch die Wüste gehst, eine kühle, schattige. Was ist die "beste" Anzahl von Proben? Es hängt so erstaunlich stark von Ihrem Problem ab, dass es vorher nicht mit Autorität beantwortet werden kann. Alle von ihnen? So viele wie du kannst? Die machen nur wenig Sinn. Ja, es ist, als wäre man teilweise tot oder schwanger. Teilweise unsinnig zu sein, ist die Folge eines sehr unterbestimmten Problems.

Wenn Sie versuchen, den Luftstrom über einem Flugzeug genau vorherzusagen? Möglicherweise benötigen Sie mehrere Millionen Messungen, um in den Ballpark zu gelangen. Wenn Sie wissen möchten, wie groß Sie sind, erledigen möglicherweise einer oder zwei die Arbeit.

Dies führt nicht zu den wichtigen Punkten "Überspannen des Raums" und "Abtasten an Orten, die die Varianz der Parameterschätzungen minimieren", aber die Frage, die eine Antwort auf Erstsemesterebene nahelegt, wäre relevant. Diese Dinge erfordern, dass Sie mehr über die Art des Problems wissen, bevor Sie implementiert werden können.

Anmerkung: bearbeitet, um pro Vorschläge zu verbessern.


1
Sie scheinen "Minimum" in der Frage als "Maximum" oder "ausreichend" gelesen zu haben. Nichts, was Sie geschrieben haben, scheint einer Faustregel von mindestens 20 zu widersprechen.
Whuber

2
@whuber, ich arbeite unter Leuten, die meinen, dass zusätzliche Messungen teuer sind, und wenn ich ihnen eine "Mindestanzahl von Proben" zur Verfügung stelle, denken sie nicht, dass es sich um eine Ungleichung handelt, bei der die potenzielle Anzahl von Proben größer ist. Sie sehen darin die Grenze für ein Optimierungsproblem der Kostenminimierung und versuchen, nur mit diesem Wert zu arbeiten. Es ist ein Produkt meiner Umwelt.
EngrStudent

1

Vielleicht für den Kontext, in dem Sie T-Tests oder ANOVAR durchführen - ein ziemlich häufiger Kontext in statistischen Basisanwendungen -, liegt es bei der Stichprobengröße, die Sie für jede Gruppe benötigen, um zuversichtlich zu sein, dass der Mittelwert jeder Gruppe ungefähr ist normalverteilt (gemäß dem zentralen Grenzwertsatz), wenn angenommen werden kann, dass die Verteilung mehr oder weniger unimodal und nicht extrem spitz ist. Zwanzig und nicht neunzehn oder einundzwanzig, weil es eine runde Zahl ist.


0

Auf der Power- und Sample-Size-Seite von Russ Lenth finden Sie einige Artikel zu diesem Thema (im Abschnitt Ratschläge in der Mitte der Seite).

Die Mindestanzahl von Personen in Ihrer Stichprobe variiert stark je nach Bevölkerungsgröße, Anzahl der Dimensionen (wenn Sie die Daten in Kategorien unterteilen) und Anzahl der Messungen (wenn Sie fortlaufende Messungen zu den einzelnen Stichproben durchführen), die Sie vornehmen, sowie der Größe von Ihr Universum, die Analysetechnik, die Sie verwenden möchten (dies ist ein sehr wichtiger Punkt - die Technik wird während der Planung der Studie oder während der Versuchsplanung definiert , niemals danach), und die Komplexität, die in früheren Studien gezeigt wurde.

Und 20 ist nicht genug für ernsthafte Forschungen außerhalb der Themen "seltene Krankheiten" und "experimentelle Psychologie" (psych wie Popper in seiner Arbeit definiert).

Verfeinerung der Antwort anhand der folgenden Kommentare:

Und 20 ist nicht genug für ernsthafte Forschung außerhalb der Themen "seltene Krankheiten" und "experimentelle Psychologie" (Psych als Popper in seiner Arbeit definiert) , bei denen eine Wahrscheinlichkeitsverteilung angepasst wird .

Und nein, Sie sollten nicht ständig Menschen vergiften, um eine große Stichprobe zu erhalten. Common Sense- und Sequential-Tests weisen Sie an, anzuhalten.


3
Ich finde es zu extrem, um pauschal zu behaupten, dass eine Stichprobe von 20 "für ernsthafte Untersuchungen nicht ausreicht". Dies steht im Widerspruch zu Ihren früheren Aussagen, dass die geeignete Stichprobengröße von Zweck, Grundgesamtheit usw. abhängt. In einigen Fällen reicht ein verfälschendes Ergebnis aus, um eine ganze Theorie zu töten.
Whuber

1
Fallstudien und qualitative Forschung können mit 1-5 Teilnehmern gut abschneiden.
Behacad

Ok, füge der Liste "Fallstudien" und "Fokusgruppen" hinzu :) Diese sind in dem enthalten, was ich sagte, was Popper "experimentelle Psychologie" nannte.
Lucas Gallindo

4
Sie sollten dann besser Astronomie, Medizin, Biologie, Chemie, ... hinzufügen. Mit anderen Worten, es ist genauso schlimm zu behaupten, dass 20 "nicht genug" ist, wie zu behaupten, dass es gut genug ist. Eigentlich ist es wahrscheinlich schlimmer. Stellen Sie sich eine Studie zur Lebensmittelsicherheit vor, in der die ersten acht Probanden, denen ein Nahrungsergänzungsmittel verabreicht wurde, an unerwarteten Nebenwirkungen starben. Würden Sie weitere Tests auf der Grundlage Ihrer Aussage "20 ist nicht genug" befürworten?
Whuber
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.