Hier bin ich auf dünnem Eis, aber lassen Sie mich versuchen: Ich habe das Gefühl (bitte kommentieren!), Dass ein Hauptunterschied zwischen Statistik und Ökonometrie darin besteht, dass wir in der Statistik die Regressoren als fest betrachten, daher die Terminologie- Design-Matrix, aus der offensichtlich stammt Versuchsplanung, bei der davon ausgegangen wird, dass wir zuerst die erklärenden Variablen auswählen und dann festlegen .
Für die meisten Datensätze und Situationen ist dies jedoch eine schlechte Anpassung. Wir beobachten die erklärenden Variablen wirklich und in diesem Sinne stehen sie auf der gleichen Grundlage wie die Antwortvariablen. Beide werden durch einen zufälligen Prozess außerhalb unserer Kontrolle bestimmt. Indem wir die als "fest" betrachten, entscheiden wir uns, nicht viele Probleme zu berücksichtigen, die dies verursachen könnte. x
Indem wir die Regressoren als stochastisch betrachten, wie es Ökonomen tun, eröffnen wir die Möglichkeit der Modellierung, die versucht, solche Probleme zu berücksichtigen. Eine kurze Liste von Problemen, die wir dann berücksichtigen und in die Modellierung einbeziehen könnten, lautet:
- Messfehler in den Regressoren
- Korrelationen zwischen Regressoren und Fehlerausdrücken
- verzögerte Antwort als Regressor
- ...
Wahrscheinlich sollte das viel häufiger gemacht werden als heute?
EDIT
Ich werde versuchen, ein Argument für die Konditionierung von Regressoren etwas formeller zu formulieren. Sei ein Zufallsvektor, und das Interesse gilt der Regression auf , wobei unter Regression die bedingte Erwartung von auf zu verstehen ist . Unter multinormalen Annahmen ist dies eine lineare Funktion, aber unsere Argumente hängen nicht davon ab. Wir beginnen mit der Faktorisierung der Gelenkdichte auf die übliche Weise
aber diese Funktionen sind nicht bekannt, daher verwenden wir ein parametrisiertes Modell
wobei die bedingte Verteilung und parametrisiert(Y,X)YXYXf(y,x)=f(y∣x)f(x)
f(y,x;θ,ψ)=fθ(y∣x)fψ(x)
θψdie Randverteilung von . Im normalen linearen Modell können wir aber das wird nicht angenommen. Der vollständige Parameterraum von ist , ein kartesisches Produkt, und die beiden Parameter haben keinen gemeinsamen Teil.Xθ=(β,σ2)(θ,ψ)Θ×Ψ
Dies kann als Faktorisierung des statistischen Experiments (oder des Datenerzeugungsprozesses DGP) interpretiert werden, wobei das erste gemäß wird und als zweiter Schritt gemäß der bedingten Dichte erzeugt wird . Beachten Sie, dass im ersten Schritt keine Kenntnisse über , die nur im zweiten Schritt eingegeben werden. Die Statistik ist eine Ergänzung zu , siehe https://en.wikipedia.org/wiki/Ancillary_statistic .Xfψ(x)Yfθ(y∣X=x)θXθ
Abhängig von den Ergebnissen des ersten Schritts kann der zweite Schritt jedoch mehr oder weniger informativ über . Wenn die durch gegebene Verteilung beispielsweise eine sehr geringe Varianz aufweist, werden die beobachteten in einem kleinen Bereich konzentriert, so dass es schwieriger ist, abzuschätzen . Der erste Teil dieses zweistufigen Experiments bestimmt also die Genauigkeit, mit der geschätzt werden kann. Daher ist es natürlich, auf Rückschlüsse auf die Regressionsparameter zu setzen. Dies ist das Konditionalitätsargument, und die obige Gliederung verdeutlicht seine Annahmen.θfψ(x)xθθX=x
In entworfenen Experimenten wird seine Annahme meistens gelten, oft mit Beobachtungsdaten nicht. Einige Beispiele für Probleme sind: Regression mit verzögerten Antworten als Prädiktoren. Die Konditionierung der Prädiktoren hängt in diesem Fall auch von der Reaktion ab! (Ich werde weitere Beispiele hinzufügen).
Ein Buch, das diese Probleme ausführlich behandelt, ist Information und Exponentialfamilien: In der statistischen Theorie von O. E. Barndorff-Nielsen. Siehe insbesondere Kapitel 4. Der Autor sagt, dass die Trennungslogik in dieser Situation jedoch selten erklärt wird , gibt jedoch die folgenden Referenzen an: RA Fisher (1956) Statistische Methoden und wissenschaftliche Inferenz und Sverdrup (1966) Der gegenwärtige Stand der Entscheidungstheorie und die Neyman-Pearson-Theorie .§4.3