(Dies ist eine Adaption von Granger & Newbold (1986) "Forecasting Economic Time Series").
Ihre Fehlerkostenfunktion ist konstruktionsbedingt . Dies beinhaltet eine kritische Annahme (dass die Fehlerkostenfunktion um Null symmetrisch ist) - eine andere Fehlerkostenfunktion hätte nicht notwendigerweise den bedingten erwarteten Wert als das ihres erwarteten Wertes. Sie können Ihre Fehlerkostenfunktion nicht minimieren, da sie unbekannte Mengen enthält. Sie beschließen also, stattdessen den erwarteten Wert zu minimieren. Dann wird Ihre Zielfunktion argmin[Y−g(X)]2argmin
E[Y−g(X)]2=∫∞−∞[y−g(X)]2fY|X(y|x)dy
das beantwortet meiner meinung nach auch deine zweite frage. Es ist intuitiv, dass der erwartete Wert von abhängig von , da wir versuchen, basierend auf zu schätzen / vorherzusagen . Zerlege das Quadrat, um es zu erhaltenX Y XYXYX
E[Y−g(X)]2=∫∞−∞y2fY|X(y|x)dy−2g(X)∫∞−∞yfY|X(y|x)dy+[g(X)]2∫∞−∞fY|X(y|x)dy
Der erste Term enthält kein , wirkt sich also nicht auf die Minimierung aus und kann ignoriert werden. Das Integral im zweiten Term ist gleich dem bedingten Erwartungswert von gegebenem , und das Integral im letzten Term ist gleich Eins. SoY Xg(X)YX
argming(x)E[Y−g(X)]2=argming(x){−2g(X)E(Y∣X)+[g(X)]2}
Die erste Ableitung bezüglich ist was zu der Bedingung erster Ordnung zur Minimierung von während die zweite Ableitung gleich was für ein Minimum ausreicht.- 2 E ( Y ≤ X ) + 2 g ( X ) g ( X ) = E ( Y ≤ X ) 2 > 0g(X)−2E(Y∣X)+2g(X)g(X)=E(Y∣X)2>0
ADDENDUM: Die Logik des Proof-Ansatzes "Addieren und Subtrahieren".
Das OP ist verwirrt über den in der Frage dargelegten Ansatz, da er tautologisch erscheint. Es ist nicht, weil , während die Taktik der Zugabe mit und Subtrahieren macht einen bestimmten Teil der Zielfunktion Null für eine beliebige Wahl des Begriffs , die hinzugefügt wird und subtrahiert wird , ist es nicht die entzerren Wertfunktion , nämlich den Wert der Ziel Funktion, die beim Minimierungskandidaten ausgewertet wird.
Für die Wahl wir die Wertefunktion
Für die beliebige Auswahl wir die Wertefunktion .V ( E ( Y ≤ X ) ) = E [ ( Y -g(X)=E(Y∣X) g ( X ) = h ( X ) V ( h ( X ) ) = E [ ( Y - h (V(E(Y∣X))=E[(Y−E(Y∣X))2∣X]g(X)=h(X)V(h(X))=E[(Y−h(X))2∣X]
Ich behaupte das
, ⇒ E ( Y 2
V(E(Y∣X))≤V(h(X))
⇒E(Y2∣X)−2E[(YE(Y∣X))∣X]+E[(E(Y∣X))2∣X]≤E(Y2∣X)−2E[(Yh(X))∣X]+E[(h(X))2∣X]
Die erste Amtszeit von LHS und RHS entfällt. Beachten Sie auch, dass die äußere Erwartung an geknüpft ist . Durch die Eigenschaften der bedingten Erwartungen kommen wir zum SchlussX
...⇒−2E(Y∣X)⋅E(Y∣X)+[E(Y∣X)]2≤−2E(Y∣X)h(X)+[h(X)]2
⇒0≤[E(Y∣X)]2−2E(Y∣X)h(X)+[h(X)]2
h ( x ) ≠ E ( Y | X ) E ( Y | X )
⇒0≤[E(Y∣X)−h(x)]2
, die mit strenger Ungleichung gilt, wenn . Also ist der globale und einzigartige Minimierer.
h(x)≠E(Y∣X)E(Y∣X)
Dies besagt aber auch, dass der "Addieren und Subtrahieren" -Ansatz hier nicht der aufschlussreichste Beweis ist.