Als «generalized-least-squares» getaggte Fragen

"Generalized Least Squares (GLS) ist eine Technik zur Schätzung der unbekannten Parameter in einem linearen Regressionsmodell. Die GLS wird angewendet, wenn die Varianzen der Beobachtungen ungleich sind (Heteroskedastizität) oder wenn ein gewisser Grad an Korrelation zwischen den Beobachtungen besteht. "" [Wikipedia]

8
Generieren Sie eine Zufallsvariable mit einer definierten Korrelation zu einer oder mehreren vorhandenen Variablen.
Für eine Simulationsstudie muss ich Zufallsvariablen generieren, die eine vorab festgelegte (Populations-) Korrelation zu einer vorhandenen Variablen .Y.YY Ich sah in die RPakete copulaund CDVineder Zufall multivariate Verteilungen mit einer bestimmten Abhängigkeitsstruktur erzeugen kann. Es ist jedoch nicht möglich, eine der resultierenden Variablen an eine vorhandene Variable zu binden. Anregungen …

1
R / mgcv: Warum produzieren te () und ti () Tensorprodukte unterschiedliche Oberflächen?
Das mgcvPaket für Rhat zwei Funktionen zum Anpassen von Tensorproduktwechselwirkungen: te()und ti(). Ich verstehe die grundlegende Arbeitsteilung zwischen den beiden (Anpassen einer nichtlinearen Wechselwirkung vs. Zerlegen dieser Wechselwirkung in Haupteffekte und eine Wechselwirkung). Was ich nicht verstehe, ist warum te(x1, x2)und ti(x1) + ti(x2) + ti(x1, x2)kann (leicht) unterschiedliche Ergebnisse …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 


1
Verallgemeinerte kleinste Quadrate: von Regressionskoeffizienten zu Korrelationskoeffizienten?
Für kleinste Quadrate mit einem Prädiktor: y=βx+ϵy=βx+ϵy = \beta x + \epsilon Wenn und vor dem Anpassen standardisiert sind (dh ), dann:xxxyyy∼N(0,1)∼N(0,1)\sim N(0,1) ββ\beta ist der gleiche wie der Pearson-Korrelationskoeffizient .rrr ββ\beta ist in der reflektierten Regression dasselbe:x=βy+ϵx=βy+ϵx = \beta y + \epsilon Gilt das auch für generalisierte kleinste Quadrate …

1
Wie baue ich einen innovativen Ausreißer bei Beobachtung 48 in mein ARIMA-Modell ein?
Ich arbeite an einem Datensatz. Nachdem ich einige Modellidentifikationstechniken angewendet hatte, kam ich mit einem ARIMA (0,2,1) -Modell heraus. Ich habe die detectIOFunktion im Paket TSAin R verwendet, um bei der 48. Beobachtung meines ursprünglichen Datensatzes einen innovativen Ausreißer (IO) zu erkennen . Wie kann ich diesen Ausreißer in mein …
10 r  time-series  arima  outliers  hypergeometric  fishers-exact  r  time-series  intraclass-correlation  r  logistic  glmm  clogit  mixed-model  spss  repeated-measures  ancova  machine-learning  python  scikit-learn  distributions  data-transformation  stochastic-processes  web  standard-deviation  r  machine-learning  spatial  similarities  spatio-temporal  binomial  sparse  poisson-process  r  regression  nonparametric  r  regression  logistic  simulation  power-analysis  r  svm  random-forest  anova  repeated-measures  manova  regression  statistical-significance  cross-validation  group-differences  model-comparison  r  spatial  model-evaluation  parallel-computing  generalized-least-squares  r  stata  fitting  mixture  hypothesis-testing  categorical-data  hypothesis-testing  anova  statistical-significance  repeated-measures  likert  wilcoxon-mann-whitney  boxplot  statistical-significance  confidence-interval  forecasting  prediction-interval  regression  categorical-data  stata  least-squares  experiment-design  skewness  reliability  cronbachs-alpha  r  regression  splines  maximum-likelihood  modeling  likelihood-ratio  profile-likelihood  nested-models 


1
Unterschied zwischen GLS und SUR
Ich habe einige über Generalized Least Squares (GLS) gelesen und versucht, sie mit meinem ökonometrischen Grundhintergrund zu verknüpfen. Ich erinnere mich, dass ich in der Graduiertenschule scheinbar unzusammenhängende Regression (SUR) verwendet habe, die GLS etwas ähnlich zu sein scheint. Ein Artikel, über den ich gestolpert bin, bezeichnete SUR sogar als …

1
Inferenz im linearen Modell mit bedingter Heteroskedastizität
Angenommen, ich beobachte unabhängige Variablenvektoren und und die abhängige Variable . Ich möchte ein Modell der Form : wobei eine positiv differenzierte, doppelt differenzierbare Funktion ist, ein unbekannter Skalierungsparameter ist und eine Gaußsche Zufallsvariable mit einer mittleren Varianz von Null ist (von der angenommen wird, dass sie unabhängig von und …

2
Warum erhalte ich in OL die gleichen Ergebnisse für OLS und GLS?
Wenn ich diesen Code ausführe: require(nlme) a <- matrix(c(1,3,5,7,4,5,6,4,7,8,9)) b <- matrix(c(3,5,6,2,4,6,7,8,7,8,9)) res <- lm(a ~ b) print(summary(res)) res_gls <- gls(a ~ b) print(summary(res_gls)) Ich bekomme die gleichen Koeffizienten und die gleiche statistische Signifikanz für die Koeffizienten: Loading required package: nlme Call: lm(formula = a ~ b) Residuals: Min 1Q …

2
Nicht korrelierte Fehler aus dem Generalized Least Square-Modell (GLS)
Als Finanzinstitut stoßen wir häufig auf die Analyse von Zeitreihendaten. Oft führen wir Regressionen mithilfe von Zeitreihenvariablen durch. Dabei stoßen wir häufig auf Residuen mit Zeitreihenstruktur, die gegen die Grundannahme unabhängiger Fehler in der OLS-Regression verstoßen. Kürzlich bauen wir ein weiteres Modell, in dem wir meiner Meinung nach eine Regression …
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.