Antworten:
Beginnen wir mit der Intuition. Die Steigung der gewöhnlichen Least Squares Regression von gegen h ( X ) , für jede Funktion h , ist proportional zu der Kovarianz von h ( X ) und Y . Die Annahme ist, dass alle Regressionen Null sind (nicht nur die linearen). Wenn Sie sich vorstellen ( X , Y ), dargestellt durch eine Punktwolke (wirklich eine Wahrscheinlichkeitsdichtewolke), dann egal wie Sie sie vertikal schneiden und die Schichten neu anordnen (was die Abbildung h ausführt)) bleibt die Regression Null. Dies impliziert, dass die bedingten Erwartungen von (die die Regressionsfunktion sind) alle konstant sind. Wir könnten mit den bedingten Verteilungen herumspielen und dabei die Erwartungen konstant halten, wodurch jede Chance auf Unabhängigkeit ruiniert würde. Wir sollten daher erwarten, dass die Schlussfolgerung nicht immer zutrifft.
Es gibt einfache Gegenbeispiele. Betrachten Sie einen Abtastraum von neun abstrakten Elementen und ein diskretes Maß mit der Wahrscheinlichkeit bestimmt durch
Definieren
Wir könnten diese Wahrscheinlichkeiten als Array anzeigen
(mit allen von multiplizierten Einträgen ) indexierten in beiden Richtungen durch die Werte - 1 , 0 , 1 .
Die marginalen Wahrscheinlichkeiten und f Y ( - 1 ) = f Y ( 1 ) = 4 / 10 ;
Dies wurde konstruiert, um die bedingte Verteilung von bei X = 0 von den anderen bedingten Verteilungen für X = ± 1 zu unterscheiden . Sie können dies sehen, indem Sie die mittlere Spalte der Matrix mit den anderen Spalten vergleichen. Die Symmetrie in den Y- Koordinaten und in allen bedingten Wahrscheinlichkeiten zeigt sofort, dass alle bedingten Erwartungen Null sind, von wo aus alle Kovarianzen Null sind, unabhängig davon, wie die zugehörigen Werte von X den Spalten neu zugewiesen werden könnten.
Für diejenigen, die möglicherweise nicht überzeugt sind, kann das Gegenbeispiel durch direkte Berechnung demonstriert werden - es müssen nur Funktionen berücksichtigt werden, und für jede von ihnen ist die Kovarianz Null.