Einige Gedanken, die ich hatte:
Dies ähnelt dem Wunsch, einen T-Test mit zwei Stichproben durchzuführen - mit der Ausnahme, dass ich für die zweite Stichprobe nur einen einzigen Wert habe und die 30 Werte nicht unbedingt normal verteilt sind.
Richtig. Die Idee ist ein bisschen wie ein T-Test mit einem einzelnen Wert. Da die Verteilung nicht bekannt ist und die Normalität mit nur 30 Datenpunkten möglicherweise etwas schwer zu schlucken ist, ist eine Art nichtparametrischer Test erforderlich.
Wenn ich anstelle von 30 Messungen 10000 Messungen hätte, könnte der Rang der Einzelmessung einige nützliche Informationen liefern.
Selbst bei 30 Messungen kann der Rang informativ sein.
Wie @whuber hervorgehoben hat, möchten Sie eine Art Vorhersageintervall. Für den nichtparametrischen Fall fragen Sie im Wesentlichen Folgendes: Wie hoch ist die Wahrscheinlichkeit, dass ein bestimmter Datenpunkt zufällig den Rang hat, den wir für Ihre 31. Messung beobachten?
Dies kann durch einen einfachen Permutationstest behoben werden. Hier ist ein Beispiel mit 15 Werten und einem Roman (16. Beobachtung), der tatsächlich größer ist als jeder der vorherigen:
932
915
865
998
521
462
688
1228
746
433
662
404
301
473
647
new value: 1374
Wir führen N Permutationen durch, bei denen die Reihenfolge der Elemente in der Liste gemischt wird, und stellen dann die Frage: Welchen Rang hat der Wert des ersten Elements in der (gemischten) Liste?
Das Durchführen von N = 1.000 Permutationen ergibt 608 Fälle, in denen der Rang des ersten Elements in der Liste gleich oder besser dem Rang des neuen Werts entspricht (tatsächlich gleich, da der neue Wert der beste ist). Wenn wir die Simulation für 1.000 Permutationen erneut ausführen, erhalten wir 658 solcher Fälle, dann 663 ...
Wenn wir N = 1.000.000 Permutationen durchführen, erhalten wir 62825 Fälle, in denen der Rang des ersten Elements in der Liste gleich oder besser dem Rang des neuen Werts entspricht (weitere Simulationen ergeben 62871 Fälle, dann 62840 ...). Wenn das Verhältnis zwischen Fällen, in denen die Bedingung erfüllt ist, und der Gesamtzahl der Permutationen genommen wird, erhalten wir Zahlen wie 0,062825, 0,062871, 0,06284 ...
Sie können sehen, dass diese Werte gegen 1/16 = 0,0625 (6,25%) konvergieren. Dies ist, wie @whuber feststellt, die Wahrscheinlichkeit, dass ein bestimmter Wert (von 16), der zufällig gezogen wird, den bestmöglichen Rang unter ihnen hat.
Für einen neuen Datensatz, bei dem der neue Wert der zweitbeste Wert ist (dh Rang 2):
6423
8552
6341
6410
6589
6134
6500
6746
8176
6264
6365
5930
6331
6012
5594
new value: 8202
wir erhalten (für N = 1.000.000 Permutationen): 125235, 124883 ... günstige Fälle, die wiederum die Wahrscheinlichkeit annähern, dass ein zufällig gezogener Wert (von 16) den zweitbesten Rang unter ihnen hat: 2/16 = 0,125 (12,5%).