Als «kernel-smoothing» getaggte Fragen

Kernel-Glättungstechniken wie die Kernel-Dichteschätzung (KDE) und die Nadaraya-Watson-Kernel-Regression schätzen Funktionen durch lokale Interpolation aus Datenpunkten. Nicht zu verwechseln mit [Kernel-Trick] für die Kernel, die zB in SVMs verwendet werden.

2
Ist die Kernel-Regression der Gaußschen Prozess-Regression ähnlich?
Ich habe zuvor die Nadaraya-Watson-Kernel-Regression verwendet, um Daten zu glätten. Kürzlich bin ich auf die Gaußsche Prozessregression gestoßen. Auf den ersten Blick scheinen sie nicht verwandt zu sein. Aber ich frage mich, ob es vielleicht eine tiefere Verbindung gibt, die mir nicht bewusst ist. Ist die Nadaraya-Watson-Kernel-Regression ein Sonderfall von …

2
Berechnen Sie die ROC-Kurve für Daten
Ich habe also 16 Studien, in denen ich versuche, eine Person anhand eines biometrischen Merkmals mithilfe von Hamming Distance zu authentifizieren. Mein Schwellenwert ist auf 3,5 eingestellt. Meine Daten sind unten und nur Versuch 1 ist ein wahres Positiv: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 

1
Effiziente Auswertung der mehrdimensionalen Kernel-Dichteschätzung
Ich habe eine angemessene Menge an Literatur über die Auswahl von Kerneln und Bandbreiten bei der Berechnung einer Kerneldichteschätzung gesehen, bin aber derzeit daran interessiert, wie die Zeit verbessert werden kann, die zur Bewertung des resultierenden KDE an einer beliebigen Anzahl von Punkten erforderlich ist. In meinem Fall verwende ich …

5
Glätten Sie eine kreisförmige / periodische Zeitreihe
Ich habe Daten für Kraftfahrzeugunfälle nach Tageszeit. Wie zu erwarten, sind sie mitten am Tag hoch und erreichen zur Hauptverkehrszeit ihren Höhepunkt. Die Standard-geom_density von ggplot2 glättet es gut Eine Teilmenge der Daten für Unfälle im Zusammenhang mit Alkohol am Steuer ist an beiden Enden des Tages (abends und am …

2
Was meinte Silverman (1981) mit "kritischer Bandbreite"?
Bei der Auswahl einer Bandbreite für einen Kernel Density Estimator ist nach meinem Verständnis die kritische Bandbreite: "Für jede ganze Zahl k, wo 1<k<nwir die minimale Breite finden können, h(k)so dass die Kernel-Dichteschätzung höchstens k Maxima hat. Silverman nennt diese h(k)Werte" kritische Breiten ". Ich verstehe dieses Konzept nicht intuitiv. …


1
Schätzung der Kernel-Dichte des np-Pakets mit dem Epanechnikov-Kernel
Ich arbeite mit dem "Geysir" -Datensatz aus dem MASS-Paket und vergleiche Kernel-Dichteschätzungen des np-Pakets. Mein Problem ist es, die Dichteschätzung unter Verwendung der Kreuzvalidierung der kleinsten Quadrate und des Epanechnikov-Kernels zu verstehen: blep<-npudensbw(~geyser$waiting,bwmethod="cv.ls",ckertype="epanechnikov") plot(npudens(bws=blep)) Für den Gaußschen Kernel scheint es in Ordnung zu sein: blga<-npudensbw(~geyser$waiting,bwmethod="cv.ls",ckertype="gaussian") plot(npudens(bws=blga)) Oder wenn ich den …

2
Aus Kernel-Dichteschätzung simulieren (empirisches PDF)
Ich habe einen Vektor Xvon N=900Beobachtungen, die am besten mit einem globalen Bandbreitenkerndichteschätzer modelliert werden können (parametrische Modelle, einschließlich dynamischer Mischungsmodelle, erwiesen sich als nicht gut passend): Jetzt möchte ich von diesem KDE aus simulieren. Ich weiß, dass dies durch Bootstrapping erreicht werden kann. In R kommt es auf diese …

3
Post-hoc-Test in einer 2x3-ANOVA mit gemischtem Design unter Verwendung von SPSS?
Ich habe zwei Gruppen von 10 Teilnehmern, die während eines Experiments dreimal bewertet wurden. Um die Unterschiede zwischen den Gruppen und zwischen den drei Bewertungen zu testen, führte ich eine 2 × 3-ANOVA mit gemischtem Design mit group(Kontrolle, experimentell), time(erste, zweite, drei) und group x time. Beides timeund groupErgebnis signifikant, …
8 anova  mixed-model  spss  post-hoc  bonferroni  time-series  unevenly-spaced-time-series  classification  normal-distribution  discriminant-analysis  probability  normal-distribution  estimation  sampling  classification  svm  terminology  pivot-table  random-generation  self-study  estimation  sampling  estimation  categorical-data  maximum-likelihood  excel  least-squares  instrumental-variables  2sls  total-least-squares  correlation  self-study  variance  unbiased-estimator  bayesian  mixed-model  ancova  statistical-significance  references  p-value  fishers-exact  probability  monte-carlo  particle-filter  logistic  predictive-models  modeling  interaction  survey  hypothesis-testing  multiple-regression  regression  variance  data-transformation  residuals  minitab  r  time-series  forecasting  arima  garch  correlation  estimation  least-squares  bias  pca  predictive-models  genetics  sem  partial-least-squares  nonparametric  ordinal-data  wilcoxon-mann-whitney  bonferroni  wilcoxon-signed-rank  traminer  regression  econometrics  standard-error  robust  misspecification  r  probability  logistic  generalized-linear-model  r-squared  effect-size  gee  ordered-logit  bayesian  classification  svm  kernel-trick  nonlinear  bayesian  pca  dimensionality-reduction  eigenvalues  probability  distributions  mathematical-statistics  estimation  nonparametric  kernel-smoothing  expected-value  filter  mse  time-series  correlation  data-visualization  clustering  estimation  predictive-models  recommender-system  sparse  hypothesis-testing  data-transformation  parametric  probability  summations  correlation  pearson-r  spearman-rho  bayesian  replicability  dimensionality-reduction  discriminant-analysis  outliers  weka 

2
Erläutern Sie das Kernel-Dichtediagramm
Ich führe eine Simulation auf einem linearen Modell aus. Ich erhalte 1000 Ergebnisse und die Ergebnisse werden in ein Dichtediagramm eingetragen. Ich verstehe, dass die x-Achse die abhängige Variable ist und die y-Achse die Kerneldichte darstellt. Yaxis ist in Dezimalzahlen von 0 bis 0,15. Wie erkläre ich das den anderen …

2
Dichteschätzung mit abgeschnittener Verteilung?
Ich habe einige Daten, die links deutlich abgeschnitten sind. Ich möchte es mit einer Dichteschätzung ausstatten, die es irgendwie handhabt, anstatt zu versuchen, es zu glätten. Welche bekannten Methoden (wie in R üblich) können dies beheben? Beispielcode: set.seed(1341) x <- c(runif(30, 0, 0.01), rnorm(100,3)) hist(x, br = 10, freq = …

1
Bias für Kernel Density Estimator (periodischer Fall)
Der Kernel-Dichteschätzer ist gegeben durch wobei mit einer unbekannten Dichte , - Bandbreite,f^(x,h)=1nh∑i=1nK(x−Xih)f^(x,h)=1nh∑i=1nK(x−Xih)\hat{f}(x,h)=\frac{1}{nh}\sum_{i=1}^{n}K(\frac{x-X_{i}}{h})X1,...XnX1,...XnX_1,...X_nfffhhh KKK - Kernelfunktion ( , , ). Die Vorspannung kann unter Verwendung der Taylor-Erweiterung berechnet werden: ∫∞−∞K(x)dx=1∫−∞∞K(x)dx=1\int_{-\infty}^{\infty}K(x)dx=1∫∞−∞K(x)xdx=0∫−∞∞K(x)xdx=0\int_{-\infty}^{\infty}K(x)xdx=0∫∞−∞K(x)x2dx&lt;∞∫−∞∞K(x)x2dx&lt;∞\int_{-\infty}^{\infty}K(x)x^2dx<\infty∫∞−∞1hK(x−yh)f(y)dy−f(x)=∫∞−∞K(y)(f(x−hy)−f(x))dy∫−∞∞1hK(x−yh)f(y)dy−f(x)=∫−∞∞K(y)(f(x−hy)−f(x))dy\int_{-\infty}^{\infty}\frac{1}{h}K(\frac{x-y}{h})f(y)dy-f(x)=\int_{-\infty}^{\infty}K(y)\left(f(x-hy)-f(x)\right)dy =∫∞−∞K(y)(f′(x)hy+12f′′(x)(hy)2+o(h2))dy=12f′′(x)h2+o(h2)=∫−∞∞K(y)(f′(x)hy+12f″(x)(hy)2+o(h2))dy=12f″(x)h2+o(h2)=\int_{-\infty}^{\infty}K(y)\left(f'(x)hy+\frac{1}{2}f''(x)(hy)^{2}+o(h^{2})\right)dy=\frac{1}{2}f''(x)h^{2}+o(h^{2}) Umgang mit periodischem Kernel und fff ( ∫10K(x)dx=1∫01K(x)dx=1\int_{0}^{1}K(x)dx=1 , ∫10K(x)xdx=0∫01K(x)xdx=0\int_{0}^{1}K(x)xdx=0 , ∫10K(x)x2dx&lt;∞∫01K(x)x2dx&lt;∞\int_{0}^{1}K(x)x^2dx<\infty )? Wie kann ich die Taylor-Erweiterung verwenden? …

2
Warum führt die Kodierung der Behandlung zu einer Korrelation zwischen zufälliger Steigung und Schnittpunkt?
Betrachten Sie ein faktorielles Design innerhalb des Subjekts und innerhalb des Gegenstands, bei dem die experimentelle Behandlungsvariable zwei Ebenen (Bedingungen) aufweist. Sei m1das Maximalmodell und m2das No-Random-Correlations-Modell. m1: y ~ condition + (condition|subject) + (condition|item) m2: y ~ condition + (1|subject) + (0 + condition|subject) + (1|item) + (0 + …

1
KDE für zensierte Daten
Ich habe eine Stichprobe von Beobachtungen, bei denen etwa der Beobachtungen rechtszensiert sind. Ich möchte einen Kernel-Dichteschätzer an diese Stichprobe anpassen, habe jedoch keine Standardmethode dafür gefunden. Gibt es eine allgemein anerkannte Methode zur Anpassung eines KDE bei zensierten Beobachtungen?30%30%30\%
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.