Als «exponential-smoothing» getaggte Fragen

Eine grundlegende Prognosetechnik für Zeitreihendaten, optional einschließlich Trend und / oder Saisonalität, aber (normalerweise) ohne kausale Einflüsse.

3
Ein Beispiel: LASSO-Regression unter Verwendung von glmnet für binäre Ergebnisse
Ich beginne mit der Verwendung von dabble glmnetmit LASSO Regression , wo mein Ergebnis von Interesse dichotomous ist. Ich habe unten einen kleinen nachgebildeten Datenrahmen erstellt: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 


3
Ensemble-Zeitreihenmodell
Ich muss die Vorhersage von Zeitreihen automatisieren und kenne die Merkmale dieser Reihen (Saisonalität, Trend, Rauschen usw.) nicht im Voraus. Mein Ziel ist es nicht, für jede Serie das bestmögliche Modell zu erhalten, sondern ziemlich schlechte Modelle zu vermeiden. Mit anderen Worten, jedes Mal kleine Fehler zu bekommen ist kein …


3
Holt-Winters oder ARIMA verwenden?
Meine Frage betrifft den konzeptionellen Unterschied zwischen Holt-Winters und ARIMA. Holt-Winters ist meines Wissens ein Sonderfall von ARIMA. Aber wann wird ein Algorithmus dem anderen vorgezogen? Vielleicht ist Holt-Winters inkrementell und dient daher als Inline-Algorithmus (schneller)? Ich freue mich auf einen Einblick hier.



1
Warum haben Anova () und drop1 () unterschiedliche Antworten für GLMMs geliefert?
Ich habe ein GLMM der Form: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) Wenn ich benutze drop1(model, test="Chi"), erhalte ich andere Ergebnisse als wenn ich Anova(model, type="III")aus dem Autopaket oder benutze summary(model). Diese beiden letzteren geben die gleichen Antworten. Unter Verwendung einer Reihe …
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 

2
Problem mit dem Beweis - warum exponentiell geglättete Zeitreihen voreingenommen sind
Ich arbeite an dem Beweis, warum die exponentielle Glättung ein voreingenommener Schätzer eines linearen Trends ist. Das Buch versucht, den erwarteten Wert einer exponentiell geglätteten Zeitreihe zu beschreiben. Es ist einer dieser Schritte, denen ich nur schwer folgen kann. Für unendliche Summen behauptet das Buch, dass Folgendes gilt: ∑(1−λ)t=11−(1−λ)=1λ∑(1−λ)t=11−(1−λ)=1λ\sum (1-\lambda)^t=\frac{1}{1-(1-\lambda)}=\frac{1}{\lambda} …

3
Einen exponentiellen gleitenden Durchschnitt auf einen gleitenden Fenstermittelwert einstellen?
Der Alpha-Parameter eines exponentiellen gleitenden Durchschnitts definiert die Glättung, die der Durchschnitt für eine Zeitreihe anwendet. In ähnlicher Weise definiert die Fenstergröße eines sich bewegenden Fenstermittels auch die Glättung. Gibt es eine Möglichkeit, den Alpha-Parameter so einzustellen, dass die Glättung ungefähr der eines Mittelwerts für bewegliche Fenster einer bestimmten Größe …

1
Wie kann ein Algorithmus zur Vorhersage von Zeitreihen am besten bewertet werden?
Was ist die beste Vorgehensweise zum Trainieren und Bewerten eines Vorhersagealgorithmus für eine Zeitreihe? Zum Lernen von Algorithmen, die im Batch-Modus trainiert werden, kann ein naiver Programmierer den Rohdatensatz [(sample, expected prediction),...]direkt an die train()Methode des Algorithmus weitergeben . Dies zeigt normalerweise eine künstlich hohe Erfolgsrate, da der Algorithmus effektiv …
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.