Anzahl der zu meldenden signifikanten Stellen


12

Gibt es eine wissenschaftlichere Methode, um die Anzahl der signifikanten Stellen zu bestimmen, die für einen Mittelwert oder ein Konfidenzintervall in einer Situation gemeldet werden sollen, die ziemlich normal ist - z. B. im ersten Jahr am College?

Ich habe die Anzahl der signifikanten Zahlen gesehen, die in eine Tabelle eingefügt werden sollen. Warum verwenden wir keine signifikanten Ziffern und die Anzahl der signifikanten Zahlen in einer Chi-Quadrat-Anpassung , aber diese scheinen nicht den Finger auf das Problem zu legen.

In meinen Klassen versuche ich meinen Schülern zu erklären, dass es eine Verschwendung von Tinte ist, 15 signifikante Stellen zu melden, wenn sie einen so großen Standardfehler in ihren Ergebnissen haben - mein Bauchgefühl war, dass es auf ungefähr irgendwo in der Größenordnung von gerundet werden sollte . Dies unterscheidet sich nicht allzu sehr von den Aussagen von ASTM - Reporting Test Results unter Bezugnahme auf E29, wo sie sagen, dass sie zwischen und .0,05 σ 0,5 σ0.25σ0.05σ0.5σ

BEARBEITEN:

Wenn ich eine Reihe von Zahlen wie xunten habe, wie viele Ziffern sollte ich verwenden, um den Mittelwert und die Standardabweichung zu drucken?

set.seed(123)
x <- rnorm(30) # default mean=0, sd=1
# R defaults to 7 digits of precision options(digits=7)
mean(x) # -0.04710376 - not far off theoretical 0
sd(x) # 0.9810307 - not far from theoretical 1
sd(x)/sqrt(length(x)) # standard error of mean 0.1791109

FRAGE: Geben Sie im Detail an, wie hoch die Genauigkeit (wenn es einen Vektor mit Zahlen mit doppelter Genauigkeit gibt) für Mittelwert und Standardabweichung ist, und schreiben Sie eine einfache pädagogische R-Funktion, die den Mittelwert und die Standardabweichung auf die signifikante Anzahl von Stellen druckt wird im Vektor reflektiert x.


Ich verstehe nicht, warum "Anzahl der signifikanten Zahlen, die in eine Tabelle aufgenommen werden müssen" Ihre Frage nicht vollständig beantwortet: Welchen Punkt verfehlt diese Frage?
whuber

Ich mag Ihre Antwort auf diese Frage @whuber, aber ich möchte ein wenig mehr Details.
Sean

1
Aber Detail über was? Auf jeden Fall klingt es so, als wäre Ihre Frage wirklich ein genaues Duplikat dieser Frage , und Sie möchten Verbesserungen an den Antworten sehen. Hab ich recht? Übrigens, wenn Sie nach pädagogischer Anleitung suchen, möchte ich Sie auf ein (spezialisiertes) Beispiel verweisen , das ich unter gis.stackexchange.com/questions/8650 zur Berichterstattung über geografische Koordinaten veröffentlicht habe: Die Idee besteht darin, die Anzahl der signifikanten zu verknüpfen Ziffern mit Objekten, deren Größe die meisten Leser leicht und intuitiv erfassen können. Ein ähnlicher Ansatz könnte in anderen Anwendungen gut funktionieren.
whuber

1
@whuber ja du bist richtig, und ich mag dieses Beispiel. Ich nehme an, ich suche nach mehr Details darüber, wie die Genauigkeit mit der Standardabweichung zusammenhängt. ZB in R x <- rnorm (30); Mittelwert (x); sd (x) # hier ist der sd eindeutig ungefähr 1, aber in R wird der Mittelwert standardmäßig mit 7 Stellen Genauigkeit gedruckt. sd (x) / 30 ist ungefähr 0,18. Vielen Dank
Sean

In R(wie in fast allen Softwareprogrammen) wird das Drucken durch einen globalen Wert (siehe options(digits=...)) gesteuert , nicht durch Berücksichtigung der Präzision.
whuber

Antworten:


9

Der Leitfaden zur Messunsicherheit (GUM) empfiehlt, dass die Unsicherheit nicht mehr als 2 Stellen und das Ergebnis mit der Anzahl der signifikanten Stellen angegeben wird, die erforderlich sind, um sie mit der Unsicherheit in Einklang zu bringen. Siehe Abschnitt 7.2.2 unten

http://www.bipm.org/utils/common/documents/jcgm/JCGM_100_2008_E.pdf

Der folgende Code war mein Versuch, diese Empfehlung in R zu implementieren. Noe, dass R bei Versuchen, nachgestellte Nullen in der Ausgabe beizubehalten, nicht kooperativ sein kann, selbst wenn sie signifikant sind.

gumr <- function(x.n,x.u) {
  z2 <- trunc(log10(x.u))+1
  z1 <- round(x.u/(10^z2),2)
  y1 <- round(x.n*10^(-z2),2)
  list(value=y1*10^z2,uncert=z1*10^z2)
}

x.val <- 8165.666
x.unc <- 338.9741
gumr(x.val,x.unc)

Der Vollständigkeit > gumr(x.val,x.unc) $value [1] 8170 $uncert [1] 340
halber

@rhombidodecahedron sollte die Unsicherheit hier nicht nur eine signifikante Zahl haben? 82 ± 3 (× 10²)
jfs

@jfs die Empfehlung besagt, zwei signifikante Zahlen in der Unsicherheit zu verwenden, nicht wahr?
Rhombidodekaeder

@rhombidodecahedron die Antwort sagt "nicht mehr als 2" Die Kriterien in GUM sind für mich unklar. Die Tabelle 3 von arxiv.org/pdf/1301.1034.pdf schlägt 1 signifikante Ziffer vor, die für weniger als 7 Messungen gemeldet werden soll.
JFS

Der Beispielcode folgt nicht der vorgeschlagenen GUM-Regel. Wenn val = 8165.666und unc = 338.9741, sollte die Messung als val = 8.17(34)*10^3(nicht val = 8170mit unc = 340wie angegeben) angegeben werden, um zu verdeutlichen, dass nur zwei Stellen der Unsicherheit signifikant sind.
Divenex

6

Wenn Sie das Konfidenzintervall sowie den Wert der Statistik anzeigen, ist es kein Problem, so viele signifikante Zahlen anzugeben, wie Sie möchten, da in diesem Fall eine große Anzahl signifikanter Zahlen keine falsche Genauigkeit impliziert, wie es das Konfidenzintervall gibt ein Hinweis auf die wahrscheinliche tatsächliche Genauigkeit (ein glaubwürdiges Intervall wäre besser). Es geht dann im Wesentlichen darum, die Tabelle ordentlich, präzise und lesbar zu machen, sodass es im Wesentlichen unwahrscheinlich ist, dass es eine einfache Regel gibt, die für alle Gelegenheiten geeignet ist.

Die Reproduzierbarkeit ist in wissenschaftlichen Studien wichtig, daher sollte es im Idealfall möglich sein, die Ergebnisse auf eine beliebige Anzahl von signifikanten Zahlen zu reproduzieren (unabhängig davon, ob sie von praktischer Bedeutung sind oder nicht). Das Runden auf eine kleine Anzahl signifikanter Zahlen kann das Vertrauen in eine Replikation einer Studie verringern, da Fehler durch das Runden der Ergebnisse maskiert werden können, sodass das Runden unter bestimmten Umständen einen möglichen Nachteil hat.

Ein weiterer Grund, nicht zu weit zu runden, besteht darin, dass es anderen unmöglich gemacht werden kann, Ihr Studium zu verlängern, ohne es tatsächlich zu wiederholen. Zum Beispiel könnte ich ein Papier veröffentlichen, das verschiedene Algorithmen für maschinelles Lernen unter Verwendung des Friedman-Tests vergleicht, was von der Rangfolge der verschiedenen Algorithmen in einem Satz von Benchmark-Datensätzen abhängt. Wenn die Statistiken für einzelne Klassifizierer in jedem Datensatz abhängig von ihren Standardfehlern einer Reihe von signifikanten Zahlen zugeordnet werden, führt dies zweifellos zu vielen offensichtlichen Bindungen in der Rangliste. Dies bedeutet, dass (i) ein Leser / Rezensent des Papiers den Friedman-Test nicht anhand der im Papier angegebenen Ergebnisse replizieren kann und (ii) jemand anderes dann nicht in der Lage ist, seinen Algorithmus anhand der Benchmark-Datensätze zu bewerten und den Friedman zu verwenden Test, um es in den Kontext der Ergebnisse meiner Studie zu stellen.


4

Sicherlich würde jede objektiv oder subjektiv getroffene Entscheidung stark davon abhängen, was Sie messen und wie genau Ihr Messinstrument ist. Letzteres ist nur ein Teil der beobachteten Variation und nicht immer leicht zu erkennen oder vorhandene Beweise dafür zu finden. Ich vermute daher sehr, dass es keine objektive, universell anwendbare Entscheidung gibt. Sie müssen nur Ihr Gehirn benutzen und in jeder Situation das beste Urteil fällen.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.