Bestimmte Messgeräte unterliegen am Arbeitsplatz einer unterschiedlichen numerischen Genauigkeit. In einigen Fällen kann die Genauigkeit ziemlich schwach sein (dh nur auf einen oder zwei signifikante Werte). Anstelle von Datensätzen wie diesen: wobei jeder der Werte eindeutig ist, erhalten wir einen Datensatz, der wie aussieht: Auf einem einzelnen Bewegungsbereichsdiagramm grafisch dargestellt, erscheint der letztere Satz "klobiger", und das zugrunde liegende Problem besteht darin, dass die Schätzung der tatsächlichen Variation innerhalb der Daten schwieriger wird, wenn die Messinkremente zu groß sind.
Meine Frage lautet wie folgt: Wenn ein Computer klobige Daten erkennen soll, muss ich eine logische Definition für das Phänomen bereitstellen. Ich habe Definitionen gesehen, die "3 oder weniger unterschiedliche Werte" oder "4 oder weniger unterschiedliche Werte" sagen, aber ich habe keine Ahnung, wie diese Definitionen erhalten wurden und was die Grundlage / Rechtfertigung für solche Standards ist.
Wäre jemand in der Lage, mich zu einer strengen Definition und Rechtfertigung zu führen?