Gibt es eine wissenschaftlichere Methode, um die Anzahl der signifikanten Stellen zu bestimmen, die für einen Mittelwert oder ein Konfidenzintervall in einer Situation gemeldet werden sollen, die ziemlich normal ist - z. B. im ersten Jahr am College?
Ich habe die Anzahl der signifikanten Zahlen gesehen, die in eine Tabelle eingefügt werden sollen. Warum verwenden wir keine signifikanten Ziffern und die Anzahl der signifikanten Zahlen in einer Chi-Quadrat-Anpassung , aber diese scheinen nicht den Finger auf das Problem zu legen.
In meinen Klassen versuche ich meinen Schülern zu erklären, dass es eine Verschwendung von Tinte ist, 15 signifikante Stellen zu melden, wenn sie einen so großen Standardfehler in ihren Ergebnissen haben - mein Bauchgefühl war, dass es auf ungefähr irgendwo in der Größenordnung von gerundet werden sollte . Dies unterscheidet sich nicht allzu sehr von den Aussagen von ASTM - Reporting Test Results unter Bezugnahme auf E29, wo sie sagen, dass sie zwischen und .0,05 σ 0,5 σ
BEARBEITEN:
Wenn ich eine Reihe von Zahlen wie x
unten habe, wie viele Ziffern sollte ich verwenden, um den Mittelwert und die Standardabweichung zu drucken?
set.seed(123)
x <- rnorm(30) # default mean=0, sd=1
# R defaults to 7 digits of precision options(digits=7)
mean(x) # -0.04710376 - not far off theoretical 0
sd(x) # 0.9810307 - not far from theoretical 1
sd(x)/sqrt(length(x)) # standard error of mean 0.1791109
FRAGE: Geben Sie im Detail an, wie hoch die Genauigkeit (wenn es einen Vektor mit Zahlen mit doppelter Genauigkeit gibt) für Mittelwert und Standardabweichung ist, und schreiben Sie eine einfache pädagogische R-Funktion, die den Mittelwert und die Standardabweichung auf die signifikante Anzahl von Stellen druckt wird im Vektor reflektiert x
.
R
(wie in fast allen Softwareprogrammen) wird das Drucken durch einen globalen Wert (siehe options(digits=...)
) gesteuert , nicht durch Berücksichtigung der Präzision.