Als «smoothing» getaggte Fragen

Glättungsmethoden in der Datenanalyse, wie Splines oder Kernel-Glätter, auch Regressionsglätter wie Lowess.


2
Auswahl einer Bandbreite für Kernel-Dichteschätzer
Für univariate Kerneldichteschätzer (KDE) verwende ich die Silverman-Regel zur Berechnung von :hhh 0.9min(sd,IQR/1.34)×n−0.20.9min(sd,IQR/1.34)×n−0.2\begin{equation} 0.9 \min(sd, IQR/1.34)\times n^{-0.2} \end{equation} Was sind die Standardregeln für multivariates KDE (unter der Annahme eines normalen Kernels)?

4
Was sind die korrekten Werte für Präzision und Rückruf in Randfällen?
Präzision ist definiert als: p = true positives / (true positives + false positives) Ist es richtig, dass sich die Genauigkeit 1 nähert true positivesund false positivessich 0 nähert? Gleiche Frage zum Rückruf: r = true positives / (true positives + false negatives) Ich führe derzeit einen statistischen Test durch, …
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 

2
Glätten - wann und wann nicht?
Auf William Briggs 'Blog gibt es einen ziemlich alten Beitrag , der sich mit den Fallstricken befasst, Daten zu glätten und diese geglätteten Daten zur Analyse zu bringen. Das Hauptargument ist nämlich: Wenn Sie in einem Moment des Wahnsinns Zeitreihendaten glätten und diese als Eingabe für andere Analysen verwenden, erhöhen …

2
Wenn variable Kernelbreiten oft gut für die Kernelregression sind, warum sind sie im Allgemeinen nicht gut für die Schätzung der Kerneldichte?
Diese Frage wird an anderer Stelle diskutiert . Variable Kernel werden häufig in der lokalen Regression verwendet. Zum Beispiel ist Löss weit verbreitet und eignet sich gut als Regressionsglätter. Es basiert auf einem Kernel mit variabler Breite, der sich an die Datensparsität anpasst. Andererseits wird angenommen, dass variable Kernel zu …

3
Wie wird beim Kneser-Ney-Glätten mit unsichtbaren Wörtern umgegangen?
Nach allem, was ich gesehen habe, ist die Kneser-Ney-Glättungsformel (zweiter Ordnung) auf die eine oder andere Weise gegeben als P2KN(wn|wn−1)=max{C(wn−1,wn)−D,0}∑w′C(wn−1,w′)+λ(wn−1)×Pcont(wn)PKN2(wn|wn−1)=max{C(wn−1,wn)−D,0}∑w′C(wn−1,w′)+λ(wn−1)×Pcont(wn) \begin{align} P^2_{KN}(w_n|w_{n-1}) &= \frac{\max \left\{ C\left(w_{n-1}, w_n\right) - D, 0\right\}}{\sum_{w'} C\left(w_{n-1}, w'\right)} + \lambda(w_{n-1}) \times P_{cont}(w_n) \end{align} mit dem normalisierenden Faktor alsλ(wn−1)λ(wn−1)\lambda(w_{n-1}) λ ( wn - 1)= D∑w′C( wn - …

2
So glätten Sie Daten und erzwingen Monotonie
Ich habe einige Daten, die ich glätten möchte, damit die geglätteten Punkte monoton abnehmen. Meine Daten nehmen stark ab und beginnen dann ein Plateau. Hier ist ein Beispiel mit R df <- data.frame(x=1:10, y=c(100,41,22,10,6,7,2,1,3,1)) ggplot(df, aes(x=x, y=y))+geom_line() Was ist eine gute Glättungstechnik, die ich verwenden könnte? Außerdem wäre es schön, …

1
So stimmen Sie die Glättung im mgcv GAM-Modell
Ich versuche herauszufinden, wie die Glättungsparameter in einem mgcv: gam-Modell gesteuert werden. Ich habe eine Binomialvariable, die ich hauptsächlich als Funktion der x- und y-Koordinaten auf einem festen Gitter modellieren möchte, sowie einige andere Variablen mit geringfügigeren Einflüssen. In der Vergangenheit habe ich ein einigermaßen gutes lokales Regressionsmodell unter Verwendung …
14 r  smoothing  mgcv 

4
Zeitreihendaten werden geglättet
Ich erstelle eine Android-Anwendung, die Beschleunigungsmesserdaten während des Schlafes aufzeichnet, um Schlaf-Trends zu analysieren und den Benutzer während des leichten Schlafes optional in der Nähe einer gewünschten Zeit aufzuwecken. Ich habe bereits die Komponente erstellt, die Daten sammelt und speichert, sowie den Alarm. Ich muss mich immer noch mit der …

2
Wann liefert ein Kalman-Filter bessere Ergebnisse als ein einfacher gleitender Durchschnitt?
Ich habe kürzlich einen Kalman-Filter am einfachen Beispiel der Messung einer Partikelposition mit einer zufälligen Geschwindigkeit und Beschleunigung implementiert. Ich habe festgestellt, dass der Kalman-Filter gut funktioniert, habe mich dann aber gefragt, was der Unterschied zwischen diesem und einem gleitenden Durchschnitt ist. Ich habe festgestellt, dass bei Verwendung eines Fensters …

5
Finden von Wendepunkten in R aus geglätteten Daten
Ich habe einige Daten, die ich glatt benutze loess. Ich möchte die Wendepunkte der geglätteten Linie finden. Ist das möglich? Ich bin mir sicher, dass jemand eine ausgefallene Methode entwickelt hat, um dieses Problem zu lösen. Ich meine, schließlich ist es R! Ich kann die Glättungsfunktion, die ich verwende, problemlos …
13 r  smoothing  loess 

2
Wie benutze ich einen Kalman-Filter?
Ich habe eine Flugbahn eines Objekts in einem 2D-Raum (einer Oberfläche). Die Flugbahn wird als eine Folge von (x,y)Koordinaten angegeben. Ich weiß, dass meine Messungen laut sind und ich manchmal offensichtliche Ausreißer habe. Also möchte ich meine Beobachtungen filtern. Soweit ich Kalman Filter verstanden habe, tut es genau das, was …

2
Laplace Glättung und Dirichlet vor
In dem Wikipedia-Artikel über Laplace-Glättung (oder additive Glättung) heißt es aus Bayes-Sicht: Dies entspricht dem erwarteten Wert der posterioren Verteilung unter Verwendung einer symmetrischen Dirichlet-Verteilung mit dem Parameter als Prior.αα\alpha Ich bin verwirrt darüber, wie das tatsächlich stimmt. Könnte mir jemand helfen zu verstehen, wie diese beiden Dinge gleichwertig sind? …

1
Die Vor- und Nachteile der Glättung Spline
Ich habe eine allgemeine Frage. Kürzlich habe ich gerade Basiserweiterung und Regularisierung gelernt. Es gibt verschiedene interessante Techniken, darunter: kubischer Spline, natürlicher Spline, B-Spline und Glättungs-Spline . Die Frage ist, was sind die Vor- und Nachteile (falls vorhanden) beim Glätten von Spline im Vergleich zu dem "typischen" kubischen und natürlichen …

2
Kernelbandbreite bei der Schätzung der Kerneldichte
Ich mache eine Kernel-Dichteschätzung mit einem Satz gewichteter Punkte (dh jede Probe hat ein Gewicht, das nicht notwendig ist) in N-Dimensionen. Außerdem befinden sich diese Stichproben nur in einem metrischen Raum (dh wir können einen Abstand zwischen ihnen definieren), aber sonst nichts. Zum Beispiel können wir weder den Mittelwert der …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.