Als «econometrics» getaggte Fragen

Die Ökonometrie ist ein Bereich der Statistik, der sich mit Anwendungen auf die Wirtschaft befasst.


1
Vorhersage des geordneten Logits in R.
Ich versuche eine geordnete Logit-Regression durchzuführen. Ich führe das Modell so aus (nur ein dummes kleines Modell, das die Anzahl der Unternehmen auf einem Markt anhand von Einkommens- und Bevölkerungsmaßen schätzt). Meine Frage betrifft Vorhersagen. nfirm.opr<-polr(y~pop0+inc0, Hess = TRUE) pr_out<-predict(nfirm.opr) Wenn ich "Vorhersagen" ausführe (mit denen ich versuche, das vorhergesagte …


2
Die Ökonometrie eines Bayes'schen Ansatzes zur Methodik von Ereignisstudien
Ereignisstudien sind in Wirtschaft und Finanzen weit verbreitet, um die Auswirkung eines Ereignisses auf den Aktienkurs zu bestimmen. Sie basieren jedoch fast immer auf häufigen Überlegungen. Eine OLS-Regression - über einen vom Ereignisfenster verschiedenen Referenzzeitraum - wird normalerweise verwendet, um die Parameter zu bestimmen, die zur Modellierung der normalen Rendite …


1
Wie adressieren instrumentelle Variablen die Auswahlverzerrung?
Ich frage mich, wie eine instrumentelle Variable die Auswahlverzerrung bei der Regression angeht. Hier ist das Beispiel, an dem ich kaue: In Mostly Harmless Econometrics diskutieren die Autoren eine IV-Regression in Bezug auf Militärdienst und Einkommen im späteren Leben. Die Frage ist: "Steigert oder verringert der Militärdienst die zukünftigen Einnahmen?" …

1
Fisher's Exact Test und hypergeometrische Verteilung
Ich wollte den genauen Test des Fischers besser verstehen, deshalb habe ich das folgende Spielzeugbeispiel entwickelt, bei dem f und m männlich und weiblich und n und y dem "Sodakonsum" wie folgt entsprechen: > soda_gender f m n 0 5 y 5 0 Dies ist natürlich eine drastische Vereinfachung, aber …

2
Sind logarithmische Differenzzeitreihenmodelle besser als Wachstumsraten?
Oft sehe ich Autoren, die ein "Log-Differenz" -Modell schätzen, z log(yt)−log(yt−1)=log(yt/yt−1)=α+βxtlog⁡(yt)−log⁡(yt−1)=log⁡(yt/yt−1)=α+βxt\log (y_t)-\log(y_{t-1}) = \log(y_t/y_{t-1}) = \alpha + \beta x_t Ich bin einverstanden dies angemessen ist , in Beziehung auf eine prozentuale Änderung der während ist .xtxtx_tytyty_tlog(yt)log⁡(yt)\log (y_t)I(1)I(1)I(1) Aber der logarithmische Unterschied ist eine Annäherung, und es scheint, dass man ein …

1
Gini-Koeffizient und Fehlergrenzen
Ich habe zu jedem Zeitpunkt eine Zeitreihe von Daten mit N = 14 Zählungen und möchte den Gini-Koeffizienten und einen Standardfehler für diese Schätzung zu jedem Zeitpunkt berechnen. Da ich zu jedem Zeitpunkt nur N = 14 Zählungen habe, berechnete ich die Jackknife-Varianz, dh aus Gleichung 7 von Tomson Ogwang …

1
Wie interpretiert man den Koeffizienten der zweiten Stufe in der Regression instrumenteller Variablen mit einem binären Instrument und einer binären endogenen Variablen?
(Ein ziemlich langer Beitrag, sorry. Er enthält viele Hintergrundinformationen. Sie können also gerne zur Frage unten springen.) Intro: Ich arbeite an einem Projekt, in dem wir versuchen, die Auswirkung einer binären endogenen Variablen auf ein kontinuierliches Ergebnis zu identifizieren . Wir haben uns ein Instrument , , von dem wir …

3
Ist die Linearitätsannahme in der linearen Regression nur eine Definition von ?
Ich überarbeite die lineare Regression. Das Lehrbuch von Greene besagt: Nun wird es natürlich andere Annahmen zum linearen Regressionsmodell geben, wie beispielsweise . Diese Annahme kombiniert mit der Linearitätsannahme (die tatsächlich definiert ) strukturiert das Modell.E(ϵ|X)=0E(ϵ|X)=0E(\epsilon|X)=0ϵϵ\epsilon Die Linearitätsannahme an sich stellt jedoch keine Struktur auf unser Modell, da völlig willkürlich …

2
Bedingte mittlere Unabhängigkeit impliziert Unvoreingenommenheit und Konsistenz des OLS-Schätzers
Betrachten Sie das folgende multiple Regressionsmodell: Y=Xβ+Zδ+U.(1)(1)Y=Xβ+Zδ+U.Y=X\beta+Z\delta+U.\tag{1} Hier ist YYY ein n×1n×1n\times 1 Spaltenvektor; XXX a n×(k+1)n×(k+1)n\times (k+1) Matrix; ββ\beta a (k+1)×1(k+1)×1(k+1)\times 1 Spaltenvektor; ZZZ a n×ln×ln\times l Matrix; δδ\delta a l×1l×1l\times 1 Spaltenvektor; und UUU , der Fehlerterm, ein n×1n×1n\times1 Spaltenvektor. FRAGE Mein Dozent, das Lehrbuch Einführung in die …

1
Ableiten der Wahrscheinlichkeitsfunktion für IV-Probit
Ich habe also ein binäres Modell, bei dem die latente unbeobachtete Variable und die beobachtete ist. bestimmt und ist somit mein Instrument. Kurz gesagt, das Modell ist. Da die Fehlerterme nicht unabhängig sind, aber Ich verwende ein IV-Probit-Modell.y∗1y1∗y_1^*y1∈{0,1}y1∈{0,1}y_1 \in \{0,1\}y2y2y_2y1y1y_1z2z2z_2y∗1y2y1===δ1z1+α1y2+u1δ21z1+δ22z2+v2=zδ+v21[y∗>0]y1∗=δ1z1+α1y2+u1y2=δ21z1+δ22z2+v2=zδ+v2y1=1[y∗>0]\begin{eqnarray} y_1^*&=& \delta_1 z_1 + \alpha_1 y_2 + u_1 \\ y_2 …


1
Warum haben Anova () und drop1 () unterschiedliche Antworten für GLMMs geliefert?
Ich habe ein GLMM der Form: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) Wenn ich benutze drop1(model, test="Chi"), erhalte ich andere Ergebnisse als wenn ich Anova(model, type="III")aus dem Autopaket oder benutze summary(model). Diese beiden letzteren geben die gleichen Antworten. Unter Verwendung einer Reihe …
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.