Okay - meine ursprüngliche Nachricht konnte keine Antwort auslösen. Lassen Sie mich die Frage anders stellen. Ich werde zunächst mein Verständnis der Schätzung aus einer entscheidungstheoretischen Perspektive erläutern. Ich habe keine formelle Ausbildung und es würde mich nicht überraschen, wenn mein Denken in irgendeiner Weise fehlerhaft ist.
Angenommen, wir haben eine Verlustfunktion . Der erwartete Verlust ist das (häufig auftretende) Risiko:
wobei die Wahrscheinlichkeit ist; und das Bayes-Risiko ist das erwartete frequentistische Risiko:
wobei unser Prior ist.
Im Allgemeinen finden wir das , das minimiert, und all dies funktioniert gut; Außerdem gilt der Satz von Fubini, und wir können die Reihenfolge der Integration umkehren, so dass jedes gegebene , das minimiert, unabhängig von allen anderen ist. Auf diese Weise wird das Wahrscheinlichkeitsprinzip nicht verletzt und wir können uns gut fühlen, wenn wir Bayesianer sind und so weiter.
Zum Beispiel ist unser häufiges Risiko angesichts des bekannten quadratischen Fehlerverlusts der mittlere quadratische Fehler oder die Summe der quadratischen Verzerrung und Varianz und des Bayes-Risikos ist die erwartete Summe der quadratischen Verzerrung und Varianz unter Berücksichtigung unseres vorherigen - dh des a posteriori erwarteten Verlusts.
Dies erscheint mir bisher sinnvoll (obwohl ich mich völlig irren könnte); Aber für einige andere Ziele sind die Dinge für mich auf jeden Fall weit weniger sinnvoll. Angenommen, anstatt die Summe aus gleichgewichteter quadratischer Verzerrung und Varianz zu minimieren, möchte ich eine ungleich gewichtete Summe minimieren - das heißt, ich möchte das , das minimiert:
wobei eine positive reelle Konstante ist (außer 1).
Ich bezeichne eine solche Summe normalerweise als "Zielfunktion", obwohl es sein kann, dass ich diesen Begriff falsch verwende. Bei meiner Frage geht es nicht darum, wie man eine Lösung findet - das Finden des , das diese Zielfunktion minimiert, ist numerisch machbar -, sondern meine Frage ist zweifach:
Kann eine solche objektive Funktion in das Paradigma der Entscheidungstheorie passen? Wenn nicht, gibt es einen anderen Rahmen, in den es passt? Wenn ja, wie? Es scheint, als wäre die zugehörige Verlustfunktion eine Funktion von , und , die - aufgrund der Erwartung - ( Ich denke) nicht richtig.
Eine solche objektive Funktion verstößt gegen das Wahrscheinlichkeitsprinzip, da jede gegebene Schätzung von allen anderen Schätzungen von abhängt (auch von hypothetischen). Es gibt jedoch Fälle, in denen der Handel mit einer Erhöhung der Fehlervarianz gegen eine Verringerung der Verzerrung wünschenswert ist. Gibt es angesichts eines solchen Ziels eine Möglichkeit, das Problem so zu konzipieren, dass es dem Wahrscheinlichkeitsprinzip entspricht?
Ich gehe davon aus, dass ich einige grundlegende Konzepte zur Entscheidungstheorie / Schätzung / Optimierung nicht verstanden habe. Vielen Dank im Voraus für alle Antworten und bitte nehmen Sie an, dass ich nichts weiß, da ich keine Ausbildung in diesem Bereich oder in der Mathematik im Allgemeinen habe. Darüber hinaus werden alle vorgeschlagenen Referenzen (für den naiven Leser) geschätzt.