Als «bias» getaggte Fragen

Die Differenz zwischen dem erwarteten Wert eines Parameterschätzers und dem wahren Wert des Parameters. Verwenden Sie dieses Tag NICHT, um auf den [Bias-Term] / [Bias-Node] (dh den [Intercept]) zu verweisen.

1
Ausgelassene variable Verzerrung bei linearer Regression
Ich habe eine philosophische Frage bezüglich der ausgelassenen variablen Verzerrung. Wir haben das typische Regressionsmodell (Populationsmodell) dem die Stichproben stammen , und dann eine Reihe von Bedingungen, unter denen sich die OLS-Schätzungen recht gut verhalten.Y=β0+β1X1+...+βnXn+υ,Y=β0+β1X1+...+βnXn+υ, Y= \beta_0 + \beta_1X_1 + ... + \beta_nX_n + \upsilon, (Y,X1,...,Xn)(Y,X1,...,Xn)(Y,X_1,...,X_n) Dann wissen wir, dass, …

3
Parameterschätzung der Exponentialverteilung mit vorgespannter Abtastung
Ich möchte den Parameter der Exponentialverteilung aus einer Stichprobenpopulation berechnen, die unter voreingenommenen Bedingungen aus dieser Verteilung entnommen wurde. Soweit ich weiß, ist für eine Stichprobe von n Werten der übliche Schätzer . Meine Stichprobe ist jedoch wie folgt voreingenommen:e - λ x λ = nλλ\lambdae−λxe−λxe^{-\lambda x}λ^=n∑xiλ^=n∑xi\hat{\lambda} = \frac{n}{\sum x_i} …

3
Post-hoc-Test in einer 2x3-ANOVA mit gemischtem Design unter Verwendung von SPSS?
Ich habe zwei Gruppen von 10 Teilnehmern, die während eines Experiments dreimal bewertet wurden. Um die Unterschiede zwischen den Gruppen und zwischen den drei Bewertungen zu testen, führte ich eine 2 × 3-ANOVA mit gemischtem Design mit group(Kontrolle, experimentell), time(erste, zweite, drei) und group x time. Beides timeund groupErgebnis signifikant, …
8 anova  mixed-model  spss  post-hoc  bonferroni  time-series  unevenly-spaced-time-series  classification  normal-distribution  discriminant-analysis  probability  normal-distribution  estimation  sampling  classification  svm  terminology  pivot-table  random-generation  self-study  estimation  sampling  estimation  categorical-data  maximum-likelihood  excel  least-squares  instrumental-variables  2sls  total-least-squares  correlation  self-study  variance  unbiased-estimator  bayesian  mixed-model  ancova  statistical-significance  references  p-value  fishers-exact  probability  monte-carlo  particle-filter  logistic  predictive-models  modeling  interaction  survey  hypothesis-testing  multiple-regression  regression  variance  data-transformation  residuals  minitab  r  time-series  forecasting  arima  garch  correlation  estimation  least-squares  bias  pca  predictive-models  genetics  sem  partial-least-squares  nonparametric  ordinal-data  wilcoxon-mann-whitney  bonferroni  wilcoxon-signed-rank  traminer  regression  econometrics  standard-error  robust  misspecification  r  probability  logistic  generalized-linear-model  r-squared  effect-size  gee  ordered-logit  bayesian  classification  svm  kernel-trick  nonlinear  bayesian  pca  dimensionality-reduction  eigenvalues  probability  distributions  mathematical-statistics  estimation  nonparametric  kernel-smoothing  expected-value  filter  mse  time-series  correlation  data-visualization  clustering  estimation  predictive-models  recommender-system  sparse  hypothesis-testing  data-transformation  parametric  probability  summations  correlation  pearson-r  spearman-rho  bayesian  replicability  dimensionality-reduction  discriminant-analysis  outliers  weka 

3
OLS: in der 1. Gleichung spannt Standardfehler in der 2. Gleichung vor?
Angenommen, Xit,YitXit,Yit{X_{it}},{Y_{it}} sind Zeitreihen mit Xit∼N(0.1,1)Xit∼N(0.1,1)X_{it}\sim N(0.1,1) , ( σ2(Yit)=1σ2(Yit)=1\sigma^2(Y_{it}) = 1 und mean(Yit)mean(Yit)mean(Y_{it}) ähnelt dem für XitXitX_{it} , ändert sich jedoch, wenn der Dummy = 1) ist. und t∈{1,2,...,200}t∈{1,2,...,200}t \in \{1,2,...,200\} , i∈{1,2,...,N}i∈{1,2,...,N}i \in \{1,2,...,N\} . In einer realen Welt sind dies periodische Börsenrenditen gegenüber NNN Unternehmen (aber Sie …

2
Übermatching Bias und verwirrende Variablen
Nach meinem Verständnis ist Matching eine Möglichkeit, die Kausalität in Beobachtungsstudien zu identifizieren. Indem Sie Beobachtungen vergleichen, die "ähnlich" sind, und solche vergleichen, die behandelt wurden oder nicht, können Sie dies als eine Art Quasi-Experiment betrachten. Was ist Überanpassung? Welche Art von Voreingenommenheit führt es ein? Ich habe Matching meistens …

2
Problem mit dem Beweis - warum exponentiell geglättete Zeitreihen voreingenommen sind
Ich arbeite an dem Beweis, warum die exponentielle Glättung ein voreingenommener Schätzer eines linearen Trends ist. Das Buch versucht, den erwarteten Wert einer exponentiell geglätteten Zeitreihe zu beschreiben. Es ist einer dieser Schritte, denen ich nur schwer folgen kann. Für unendliche Summen behauptet das Buch, dass Folgendes gilt: ∑(1−λ)t=11−(1−λ)=1λ∑(1−λ)t=11−(1−λ)=1λ\sum (1-\lambda)^t=\frac{1}{1-(1-\lambda)}=\frac{1}{\lambda} …

1
Wann ist es wichtig, einen unvoreingenommenen Schätzer zu haben?
Wir haben ein paar Fragen und Antworten darüber, wann man eine voreingenommene Schätzung einer unvoreingenommenen vorziehen würde, aber ich habe auf der umgekehrten Frage nichts gefunden: In welchen Situationen ist es wichtig, nur unvoreingenommene Schätzer zu berücksichtigen ? Es wird viel Wert auf das Konzept der Unparteilichkeit bei statistischen Einführungskursen …



2
Gibt es zwei Definitionen des Wortes Voreingenommenheit?
Ich höre, dass der Begriff Voreingenommenheit in der statistischen Literatur häufig verwendet wird. Zum Beispiel, Durch die Verwendung der mittleren Imputation fügen wir unserer Schätzung eine Verzerrung hinzu. Ein anderes Beispiel, Der Bias-Varianz-Kompromiss ist ein wichtiges Thema bei der Auswahl von Modellen. Sind das die gleichen "Vorurteile"?

2
Zerlegung der durchschnittlichen quadratischen Verzerrung (in Elemente des statistischen Lernens)
Ich kann nicht herausfinden, wie die Formel 7.14 auf Seite 224 von Die Elemente des statistischen Lernens abgeleitet wird. Kann mir jemand helfen, es herauszufinden? Average squared bias=Average[model bias]2+Average[estimation bias]2Average squared bias=Average[model bias]2+Average[estimation bias]2\textrm{Average squared bias} = \textrm{Average}[\textrm{model bias}]^2 + \textrm{Average}[\textrm{estimation bias}]^2

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.