Bei diesem Problem geht es eigentlich um die Branderkennung, es ist jedoch stark analog zu einigen Problemen bei der Erkennung des radioaktiven Zerfalls. Das beobachtete Phänomen ist sowohl sporadisch als auch sehr variabel; Daher besteht eine Zeitreihe aus langen Folgen von Nullen, die durch variable Werte unterbrochen werden.
Ziel ist nicht nur die Erfassung von Ereignissen (Nullenbruch), sondern die quantitative Charakterisierung der Ereignisse selbst. Die Sensoren sind jedoch begrenzt und zeichnen daher manchmal Null auf, selbst wenn die "Realität" nicht Null ist. Aus diesem Grund müssen beim Vergleich von Sensoren Nullen eingeschlossen werden.
Sensor B ist möglicherweise empfindlicher als Sensor A, und ich möchte dies statistisch beschreiben können. Für diese Analyse habe ich keine "Wahrheit", aber ich habe einen Sensor C, der von den Sensoren A und B unabhängig ist. Daher erwarte ich, dass eine bessere Übereinstimmung zwischen A / B und C eine bessere Übereinstimmung mit "Wahrheit" anzeigt. (Dies mag unsicher erscheinen, aber Sie müssen mir vertrauen - ich bin hier auf festem Grund, basierend auf dem, was aus anderen Studien über die Sensoren bekannt ist).
Das Problem ist also, wie man die "bessere Übereinstimmung von Zeitreihen" quantifiziert. Korrelation ist die naheliegende Wahl, wird jedoch von all diesen Nullen (die nicht ausgelassen werden dürfen) und natürlich überproportional von den Maximalwerten beeinflusst. Der RMSE-Wert könnte ebenfalls berechnet werden, würde jedoch in Bezug auf das Verhalten der Sensoren im Fall nahe Null stark gewichtet.
F1: Wie kann eine logarithmische Skalierung auf Werte ungleich Null angewendet werden, die dann in einer Zeitreihenanalyse mit Nullen kombiniert werden?
F2: Welche "Best Practices" können Sie für eine Zeitreihenanalyse dieser Art empfehlen, bei der das Verhalten bei Werten ungleich Null im Vordergrund steht, Nullwerte jedoch dominieren und nicht ausgeschlossen werden können?