Ich habe einige Daten in [0,1], die ich mit einer Beta-Regression analysieren möchte. Natürlich muss etwas unternommen werden, um den 0,1-Werten Rechnung zu tragen. Ich mag es nicht, Daten an ein Modell anzupassen. Ich glaube auch nicht, dass eine Inflation von Null und 1 eine gute Idee ist, weil ich in diesem Fall glaube, dass man die Nullen als sehr kleine positive Werte betrachten sollte (aber ich möchte nicht genau sagen, welcher Wert angemessen ist. Eine vernünftige Wahl Ich glaube, es wäre, kleine Werte wie .001 und .999 auszuwählen und das Modell unter Verwendung der kumulativen Distanz für die Beta anzupassen. Für Beobachtungen wäre y_i die logarithmische Wahrscheinlichkeit LL_iwould
if y_i < .001 LL+=log(cumd_beta(.001))
else if y_i>.999 LL+=log(1.0-cum_beta(.999))
else LL+=log(beta_density(y_i))
Was mir an diesem Modell gefällt, ist, dass wenn das Beta-Regressionsmodell gültig ist, dieses Modell auch gültig ist, aber ein wenig von der Empfindlichkeit für die Extremwerte entfernt wird. Dies scheint jedoch ein so natürlicher Ansatz zu sein, dass ich mich frage, warum ich in der Literatur keine offensichtlichen Hinweise finde. Meine Frage ist also, anstatt die Daten zu ändern, warum nicht das Modell ändern. Durch das Ändern der Daten werden die Ergebnisse verzerrt (basierend auf der Annahme, dass das ursprüngliche Modell gültig ist), wohingegen durch das Ändern des Modells durch Binning der Extremwerte die Ergebnisse nicht verzerrt werden.
Vielleicht gibt es ein Problem, das ich übersehen habe?