Wir haben ein einfaches lineares Regressionsmodell. Unsere Annahmen sind:
,
sind voneinander unabhängig.
Reichen diese Hypothesen aus, um zu behaupten, dass ?
Wir haben ein einfaches lineares Regressionsmodell. Unsere Annahmen sind:
,
sind voneinander unabhängig.
Reichen diese Hypothesen aus, um zu behaupten, dass ?
Antworten:
Hier ist ein interessantes Gegenbeispiel.
Definieren Sie eine Verteilungsfunktion
für . ( ist die Anzeigefunktion.)
Die Darstellung von ist hier blau dargestellt. Wenn wir , erscheint seine Darstellung in rot.
Die direkte Berechnung zeigt, dass jede Variable mit der Verteilung Mittelwert Null und die Einheitsvarianz hat. Konstruktionsbedingt hat eine gleiche Mischung von mit (dessen PDF ) eine Verteilungsfunktion proportional zu sie ist Standardnormal (mit Mittelwert Null und Einheitsvarianz).
Lassen Sie eine Bernoulli -Verteilung haben. Angenommen, hat die Verteilung und hat die Verteilung , wobei alle unabhängig sind. Die Annahme über ist irrelevant (oder per Definition von ) und alle anderen Annahmen gelten durch die Konstruktion, jedoch keine der bedingten Verteilungen sind für jeden Wert von Normal .
Die Annahme, dass die bedingte Varianz gleich der bedingungslosen Varianz ist, zusammen mit der Annahme, dass impliziert einen bedingten Mittelwert von Null, nämlich
Die beiden Annahmen implizieren dies
Ad absurdum , nimm das an
Dies impliziert wiederum, dass . Nach dem Gesetz der wiederholten Erwartungen haben wir. Zur Klarheit einstellen. Dann haben wir das
Dies kann jedoch nicht sein, da eine Zufallsvariable nicht streng größer sein kann als ihr eigener erwarteter Wert. Damit muss halten.
Beachten Sie, dass das Gegenteil nicht unbedingt der Fall ist .
Was ein Beispiel angeht, um zu zeigen, dass selbst wenn die obigen Ergebnisse zutreffen und selbst unter der Annahme der marginalen Normalität, die bedingte Verteilung nicht unbedingt mit der marginalen Verteilung identisch ist (was die Unabhängigkeit begründen würde), hat mich das geschlagen.