Ich habe ein großes Problem mit einem konzeptionellen Problem, das ich mir ausgedacht habe.
Angenommen, ein Unternehmen hat eine stark verzerrte Verteilung . Etwas Ähnliches wie ein Exponential oder Lognormal nur extremer. Stellen Sie sich nun vor, die Verteilung sei so verzerrt, dass der Mittelwert der Verteilung höher ist als das 99% -Perzentil der Verteilung. (Aka 1-2 extrem höhere Werte führten dazu, dass der Mittelwert im Vergleich zum Rest der Verteilung extrem hoch war).
Wenn diese Verteilung verwendet würde, um einen zukünftigen Wert vorherzusagen (auch bekannt als Zufallsstichprobe aus der Verteilung), würde der Mittelwert per Definition nicht im 95% -Vorhersageintervall liegen?
In meinem Gehirn ist ein Präditionsintervall von 95% ein Bereich, zwischen dem 95% aller zukünftigen Werte liegen werden. Für jede Verteilung sollte dies genau dem 0,025-Perzentil an der Untergrenze und dem 0,975-Perzentil an der Obergrenze entsprechen. Wenn der Mittelwert höher als das 0,975-Perzentil ist, liegt der Mittelwert nicht innerhalb der 95%. Vorhersageintervall '.
Denke ich falsch darüber nach? Es scheint seltsam, eine Prognose als zu melden
- Prognostizierter Mittelwert: 6.000.0000
- 95% Vorhersageintervall: [400.5000].