Die Frage, die ich stellen möchte, lautet: Wie ändert sich der Anteil der Stichproben innerhalb von 1 SD des Mittelwerts einer Normalverteilung, wenn die Anzahl der Variablen zunimmt?
(Fast) jeder weiß, dass in einer eindimensionalen Normalverteilung 68% der Proben innerhalb einer Standardabweichung vom Mittelwert gefunden werden können. Was ist mit 2, 3, 4, ... Dimensionen? Ich weiß, es wird weniger ... aber um wie viel (genau)? Es wäre praktisch, eine Tabelle mit den Zahlen für 1, 2, 3 ... 10 Dimensionen sowie 1, 2, 3 ... 10 SDs zu haben. Kann jemand auf eine solche Tabelle verweisen?
Ein bisschen mehr Kontext - Ich habe einen Sensor, der Daten auf bis zu 128 Kanälen liefert. Jeder Kanal ist (unabhängigen) elektrischen Störungen ausgesetzt. Wenn ich ein Kalibrierungsobjekt wahrnehme, kann ich eine ausreichende Anzahl von Messungen mitteln und einen Mittelwert über die 128 Kanäle sowie 128 einzelne Standardabweichungen erhalten.
ABER ... wenn es um die einzelnen Momentanablesungen geht, antworten die Daten nicht so sehr wie bei 128 Einzelablesungen, sondern wie bei einer einzelnen Ablesung einer (bis zu) 128-dimensionalen Vektorgröße. Dies ist sicherlich die beste Methode, um die wenigen kritischen Messwerte zu behandeln (normalerweise 4-6 von 128).
Ich möchte ein Gefühl dafür bekommen, was "normale" Variation ist und was "Ausreißer" in diesem Vektorraum ist. Ich bin mir sicher, dass ich einen Tisch wie den von mir beschriebenen gesehen habe, der auf diese Art von Situation zutrifft - kann jemand auf einen zeigen?