Als «least-squares» getaggte Fragen

Bezieht sich auf eine allgemeine Schätztechnik, bei der der Parameterwert ausgewählt wird, um die quadratische Differenz zwischen zwei Größen zu minimieren, z. B. der beobachtete Wert einer Variablen und der erwartete Wert dieser Beobachtung, abhängig vom Parameterwert. Gaußsche lineare Modelle werden durch kleinste Quadrate angepasst, und kleinste Quadrate sind die Idee, die der Verwendung des mittleren quadratischen Fehlers (MSE) als Methode zur Bewertung eines Schätzers zugrunde liegt.

2
Online-Referenzen mit Einführung in OLS
Ich habe angefangen, gewöhnliche Schätzer für kleinste Quadrate (OLS) zu studieren und bin noch ganz am Anfang. Ich habe bereits einige Bücher über Ökonometrie gekauft, aber online nichts gefunden. Ich habe mich also gefragt, ob es eine Website, eine Homepage oder andere Online-Ressourcen gibt, die die Schätzer der kleinsten Quadrate …

3
Wann wären kleinste Quadrate eine schlechte Idee?
Wenn ich ein Regressionsmodell habe: wobei und ,Y.= X.β+ εY=Xβ+ε Y = X\beta + \varepsilon V[ε]=Id∈Rn×nV[ε]=Id∈Rn×n\mathbb{V}[\varepsilon] = Id \in \mathcal{R} ^{n \times n}E[ε]=(0,…,0)E[ε]=(0,…,0)\mathbb{E}[\varepsilon]=(0, \ldots , 0) Wann wäre die Verwendung von , dem gewöhnlichen Schätzer der kleinsten Quadrate von , eine schlechte Wahl für einen Schätzer?βOLSβOLS\beta_{\text{OLS}}ββ\beta Ich versuche ein Beispiel …

3
Warum ist der OLS-Schätzer des AR (1) -Koeffizienten voreingenommen?
Ich versuche zu verstehen, warum OLS einen voreingenommenen Schätzer für einen AR (1) -Prozess liefert. Betrachten Sie In diesem Modell wird die strikte Exogenität verletzt, dh und sind korreliert, aber und \ epsilon_t sind nicht korreliert . Aber wenn dies zutrifft, warum gilt dann die folgende einfache Ableitung nicht? ytϵtyt-1ϵtytϵt=α+βyt−1+ϵt,∼iidN(0,1).yt=α+βyt−1+ϵt,ϵt∼iidN(0,1). …


4
Was ist der Unterschied zwischen kleinsten Quadraten und pseudoinversen Techniken für die lineare Regression?
Ich wundere mich über den Unterschied zwischen ihnen. Grundsätzlich erledigen sie am Ende die gleiche Aufgabe, indem sie Parameterkoeffizienten finden, aber sie sehen genauso anders aus, wie wir die Koeffizienten finden. Für mich scheint die Methode der kleinsten Quadrate Differenzierung und Matrixform zu verwenden, um die Koeffizienten zu finden, und …

3
Berechnung der p-Werte in einem beschränkten (nicht negativen) kleinsten Quadrat
Ich habe Matlab verwendet, um uneingeschränkte kleinste Quadrate (gewöhnliche kleinste Quadrate) auszuführen, und es gibt automatisch die Koeffizienten, die Teststatistik und die p-Werte aus. Meine Frage ist, dass beim Durchführen von eingeschränkten kleinsten Quadraten (streng nichtnegative Koeffizienten) nur die Koeffizienten OHNE Teststatistik und p-Werte ausgegeben werden. Ist es möglich, diese …


2
Warum ist die Steigung immer genau 1, wenn die Fehler auf den Residuen mit OLS zurückgeführt werden?
Ich habe mit der Beziehung zwischen den Fehlern und den Residuen mithilfe einiger einfacher Simulationen in R experimentiert. Eine Sache, die ich gefunden habe, ist, dass ich unabhängig von der Stichprobengröße oder der Fehlervarianz immer genau für die Steigung erhalte, wenn Sie das Modell anpassen111 errors∼β0+β1×residualserrors∼β0+β1×residuals {\rm errors} \sim \beta_0 …


2
Bedingte mittlere Unabhängigkeit impliziert Unvoreingenommenheit und Konsistenz des OLS-Schätzers
Betrachten Sie das folgende multiple Regressionsmodell: Y=Xβ+Zδ+U.(1)(1)Y=Xβ+Zδ+U.Y=X\beta+Z\delta+U.\tag{1} Hier ist YYY ein n×1n×1n\times 1 Spaltenvektor; XXX a n×(k+1)n×(k+1)n\times (k+1) Matrix; ββ\beta a (k+1)×1(k+1)×1(k+1)\times 1 Spaltenvektor; ZZZ a n×ln×ln\times l Matrix; δδ\delta a l×1l×1l\times 1 Spaltenvektor; und UUU , der Fehlerterm, ein n×1n×1n\times1 Spaltenvektor. FRAGE Mein Dozent, das Lehrbuch Einführung in die …

1
Verallgemeinerte kleinste Quadrate: von Regressionskoeffizienten zu Korrelationskoeffizienten?
Für kleinste Quadrate mit einem Prädiktor: y=βx+ϵy=βx+ϵy = \beta x + \epsilon Wenn und vor dem Anpassen standardisiert sind (dh ), dann:xxxyyy∼N(0,1)∼N(0,1)\sim N(0,1) ββ\beta ist der gleiche wie der Pearson-Korrelationskoeffizient .rrr ββ\beta ist in der reflektierten Regression dasselbe:x=βy+ϵx=βy+ϵx = \beta y + \epsilon Gilt das auch für generalisierte kleinste Quadrate …

1
Wie baue ich einen innovativen Ausreißer bei Beobachtung 48 in mein ARIMA-Modell ein?
Ich arbeite an einem Datensatz. Nachdem ich einige Modellidentifikationstechniken angewendet hatte, kam ich mit einem ARIMA (0,2,1) -Modell heraus. Ich habe die detectIOFunktion im Paket TSAin R verwendet, um bei der 48. Beobachtung meines ursprünglichen Datensatzes einen innovativen Ausreißer (IO) zu erkennen . Wie kann ich diesen Ausreißer in mein …
10 r  time-series  arima  outliers  hypergeometric  fishers-exact  r  time-series  intraclass-correlation  r  logistic  glmm  clogit  mixed-model  spss  repeated-measures  ancova  machine-learning  python  scikit-learn  distributions  data-transformation  stochastic-processes  web  standard-deviation  r  machine-learning  spatial  similarities  spatio-temporal  binomial  sparse  poisson-process  r  regression  nonparametric  r  regression  logistic  simulation  power-analysis  r  svm  random-forest  anova  repeated-measures  manova  regression  statistical-significance  cross-validation  group-differences  model-comparison  r  spatial  model-evaluation  parallel-computing  generalized-least-squares  r  stata  fitting  mixture  hypothesis-testing  categorical-data  hypothesis-testing  anova  statistical-significance  repeated-measures  likert  wilcoxon-mann-whitney  boxplot  statistical-significance  confidence-interval  forecasting  prediction-interval  regression  categorical-data  stata  least-squares  experiment-design  skewness  reliability  cronbachs-alpha  r  regression  splines  maximum-likelihood  modeling  likelihood-ratio  profile-likelihood  nested-models 


4
Zeitdiskretes Ereignisverlaufsmodell (Überlebensmodell) in R.
Ich versuche, ein zeitdiskretes Modell in R einzubauen, bin mir aber nicht sicher, wie ich das machen soll. Ich habe gelesen, dass Sie die abhängige Variable in verschiedenen Zeilen organisieren können, eine für jede glmZeitbeobachtung , und die Funktion mit einem Logit- oder Cloglog-Link verwenden können. In diesem Sinne, ich …
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 

1
R lineare Regression kategoriale Variable "versteckter" Wert
Dies ist nur ein Beispiel, auf das ich mehrmals gestoßen bin, daher habe ich keine Beispieldaten. Ausführen eines linearen Regressionsmodells in R: a.lm = lm(Y ~ x1 + x2) x1ist eine stetige Variable. x2ist kategorisch und hat drei Werte, z. B. "Niedrig", "Mittel" und "Hoch". Die von R gegebene Ausgabe …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.