Als «kernel-smoothing» getaggte Fragen

Kernel-Glättungstechniken wie die Kernel-Dichteschätzung (KDE) und die Nadaraya-Watson-Kernel-Regression schätzen Funktionen durch lokale Interpolation aus Datenpunkten. Nicht zu verwechseln mit [Kernel-Trick] für die Kernel, die zB in SVMs verwendet werden.


4
Gute Methoden für Dichtediagramme nicht negativer Variablen in R?
plot(density(rexp(100)) Offensichtlich steht die gesamte Dichte links von Null für eine Verzerrung. Ich möchte einige Daten für Nicht-Statistiker zusammenfassen und Fragen dazu vermeiden, warum nicht-negative Daten eine Dichte links von Null aufweisen. Die Diagramme dienen der Randomisierungsprüfung. Ich möchte die Verteilung der Variablen nach Behandlungs- und Kontrollgruppen aufzeigen. Die Verteilungen …

2
Auswahl einer Bandbreite für Kernel-Dichteschätzer
Für univariate Kerneldichteschätzer (KDE) verwende ich die Silverman-Regel zur Berechnung von :hhh 0.9min(sd,IQR/1.34)×n−0.20.9min(sd,IQR/1.34)×n−0.2\begin{equation} 0.9 \min(sd, IQR/1.34)\times n^{-0.2} \end{equation} Was sind die Standardregeln für multivariates KDE (unter der Annahme eines normalen Kernels)?

1
"Kernel Density Estimation" ist eine Faltung von was?
Ich versuche, die Schätzung der Kerneldichte besser zu verstehen. Verwendung der Definition aus Wikipedia: https://en.wikipedia.org/wiki/Kernel_density_estimation#Definition fh^(x)=1n∑ni=1Kh(x−xi)=1nh∑ni=1K(x−xih)fh^(x)=1n∑i=1nKh(x−xi)=1nh∑i=1nK(x−xih) \hat{f_h}(x) = \frac{1}{n}\sum_{i=1}^n K_h (x - x_i) \quad = \frac{1}{nh} \sum_{i=1}^n K\Big(\frac{x-x_i}{h}\Big) Nehmen wir als rechteckige Funktion, die ergibt, wenn zwischen und und andernfalls , und (Fenstergröße) als 1.1 x - 0,5 0,5 0 …

2
Können Sie die Dichteschätzung des Parzen-Fensters (Kernel) in Laienbegriffen erklären?
Die Schätzung der Parzen-Fensterdichte wird als beschrieben p(x)=1n∑i=1n1h2ϕ(xi−xh)p(x)=1n∑i=1n1h2ϕ(xi−xh) p(x)=\frac{1}{n}\sum_{i=1}^{n} \frac{1}{h^2} \phi \left(\frac{x_i - x}{h} \right) wobei nnn die Anzahl der Elemente im Vektor ist, ein Vektor ist, eine Wahrscheinlichkeitsdichte von , die Dimension des Parzen-Fensters ist und eine Fensterfunktion ist.xxxp(x)p(x)p(x)xxxhhhϕϕ\phi Meine Fragen sind: Was ist der grundlegende Unterschied zwischen einer …

4
Wie projiziert man einen neuen Vektor auf den PCA-Raum?
Nach der Durchführung der Hauptkomponentenanalyse (PCA) möchte ich einen neuen Vektor auf den PCA-Raum projizieren (dh seine Koordinaten im PCA-Koordinatensystem finden). Ich habe PCA in R-Sprache mit berechnet prcomp. Jetzt sollte ich meinen Vektor mit der PCA-Rotationsmatrix multiplizieren können. Sollen die Hauptkomponenten in dieser Matrix in Zeilen oder Spalten angeordnet …
21 r  pca  r  variance  heteroscedasticity  misspecification  distributions  time-series  data-visualization  modeling  histogram  kolmogorov-smirnov  negative-binomial  likelihood-ratio  econometrics  panel-data  categorical-data  scales  survey  distributions  pdf  histogram  correlation  algorithms  r  gpu  parallel-computing  approximation  mean  median  references  sample-size  normality-assumption  central-limit-theorem  rule-of-thumb  confidence-interval  estimation  mixed-model  psychometrics  random-effects-model  hypothesis-testing  sample-size  dataset  large-data  regression  standard-deviation  variance  approximation  hypothesis-testing  variance  central-limit-theorem  kernel-trick  kernel-smoothing  error  sampling  hypothesis-testing  normality-assumption  philosophical  confidence-interval  modeling  model-selection  experiment-design  hypothesis-testing  statistical-significance  power  asymptotics  information-retrieval  anova  multiple-comparisons  ancova  classification  clustering  factor-analysis  psychometrics  r  sampling  expectation-maximization  markov-process  r  data-visualization  correlation  regression  statistical-significance  degrees-of-freedom  experiment-design  r  regression  curve-fitting  change-point  loess  machine-learning  classification  self-study  monte-carlo  markov-process  references  mathematical-statistics  data-visualization  python  cart  boosting  regression  classification  robust  cart  survey  binomial  psychometrics  likert  psychology  asymptotics  multinomial 

2
Wenn der Epanechnikov-Kernel bei der Kernel-Dichteschätzung theoretisch optimal ist, warum wird er nicht häufiger verwendet?
Ich habe (zum Beispiel hier ) gelesen, dass der Epanechnikov-Kernel zumindest im theoretischen Sinne optimal ist, wenn man eine Kerneldichteschätzung durchführt. Wenn dies zutrifft, warum wird der Gaußsche Kern dann so häufig als Standardkern oder in vielen Fällen als einziger Kern in Bibliotheken zur Dichteschätzung angezeigt?

2
Wenn variable Kernelbreiten oft gut für die Kernelregression sind, warum sind sie im Allgemeinen nicht gut für die Schätzung der Kerneldichte?
Diese Frage wird an anderer Stelle diskutiert . Variable Kernel werden häufig in der lokalen Regression verwendet. Zum Beispiel ist Löss weit verbreitet und eignet sich gut als Regressionsglätter. Es basiert auf einem Kernel mit variabler Breite, der sich an die Datensparsität anpasst. Andererseits wird angenommen, dass variable Kernel zu …

1
Was ist die Intuition hinter austauschbaren Proben unter der Nullhypothese?
Permutationstests (auch Randomisierungstest, Re-Randomisierungstest oder exakter Test genannt) sind sehr nützlich und nützlich, wenn die zum Beispiel erforderliche Annahme einer Normalverteilung t-testnicht erfüllt ist und wenn die Transformation der Werte durch Rangfolge der Werte erfolgt Ein nicht parametrischer Test Mann-Whitney-U-testwürde dazu führen, dass mehr Informationen verloren gehen. Eine einzige Annahme, …
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

2
Fläche unter dem "pdf" in der Kerndichteschätzung in R
Ich versuche, die ' Dichte' -Funktion in R zu verwenden, um Kernel-Dichteschätzungen durchzuführen. Ich habe einige Schwierigkeiten, die Ergebnisse zu interpretieren und verschiedene Datensätze zu vergleichen, da die Fläche unter der Kurve nicht unbedingt 1 zu sein scheint. Für jede Wahrscheinlichkeitsdichtefunktion (pdf) müssen wir die Fläche . Ich gehe davon …

3
Wie berechnet man die Überlappung zwischen den empirischen Wahrscheinlichkeitsdichten?
Ich suche nach einer Methode zur Berechnung der Überlappungsfläche zwischen zwei Kerndichteschätzungen in R als Maß für die Ähnlichkeit zwischen zwei Stichproben. Um dies zu verdeutlichen, müsste ich im folgenden Beispiel die Fläche des violett überlappenden Bereichs quantifizieren: library(ggplot2) set.seed(1234) d <- data.frame(variable=c(rep("a", 50), rep("b", 30)), value=c(rnorm(50), runif(30, 0, 3))) …


1
Gibt es eine optimale Bandbreite für einen Kernel-Dichteschätzer für Derivate?
Ich muss die Dichtefunktion basierend auf einer Reihe von Beobachtungen mit dem Kernel-Dichteschätzer abschätzen. Basierend auf den gleichen Beobachtungen muss ich auch die erste und die zweite Ableitung der Dichte unter Verwendung der Ableitungen des Kerndichteschätzers schätzen. Die Bandbreite wird sicherlich einen großen Einfluss auf das Endergebnis haben. Zunächst weiß …

1
Kernel-Bandbreite: Regeln von Scott vs. Silverman
Kann jemand im Klartext erklären, worin der Unterschied zwischen den Daumenregeln von Scott und Silverman für die Bandbreitenauswahl besteht? Insbesondere wenn ein besser als die anderen? Hängt es mit der zugrunde liegenden Distribution zusammen? Anzahl von Beispielen? PS Ich beziehe mich auf den Code in SciPy .

1
Was ist die langfristige Varianz?
Wie ist die langfristige Varianz im Bereich der Zeitreihenanalyse definiert? Ich verstehe, dass es für den Fall verwendet wird, dass die Daten eine Korrelationsstruktur aufweisen. Unser stochastischer Prozess wäre also keine Familie von X1,X2…X1,X2…X_1, X_2 \dots iid Zufallsvariablen, sondern nur identisch verteilt? Könnte ich eine Standardreferenz als Einführung in das …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.