Als «kernel-trick» getaggte Fragen

Kernel-Methoden werden beim maschinellen Lernen verwendet, um lineare Techniken auf nichtlineare Situationen zu verallgemeinern, insbesondere SVMs, PCA und GPs. Nicht zu verwechseln mit [Kernel-Glättung] für die Kernel-Dichteschätzung (KDE) und die Kernel-Regression.


1
Kernelised k Nächster Nachbar
Ich bin neu in Kerneln und habe beim Versuch, kNN zu kerneln, einen Haken bekommen. Vorbereitungen Ich verwende einen Polynomkern: K(x,y)=(1+⟨x,y⟩)dK(x,y)=(1+⟨x,y⟩)dK(\mathbf{x},\mathbf{y}) = (1 + \langle \mathbf{x},\mathbf{y} \rangle)^d Ihr typischer euklidischer kNN verwendet die folgende Abstandsmetrik: d(x,y)=||x−y||d(x,y)=||x−y||d(\mathbf{x}, \mathbf{y}) = \vert\vert \mathbf{x} - \mathbf{y} \vert\vert Lassen Sie \ mathbf {x} in einen …


1
Nystroem-Methode zur Kernel-Approximation
Ich habe über die Nyström-Methode für die Annäherung an Kernel mit niedrigem Rang gelesen. Diese Methode wird in scikit-learn [1] implementiert, um Datenproben auf eine niedrigrangige Näherung der Kernel-Feature-Mapping zu projizieren. Nach meinem besten Wissen erzeugt es bei gegebenem Trainingssatz und einer Kernelfunktion eine niedrigrangige Approximation der Kernelmatrix durch Anwenden …

2
Funktioniert der Satz von Mercer umgekehrt?
Ein Kollege hat eine Funktion sss und für unsere Zwecke ist es eine Blackbox. Die Funktion misst die Ähnlichkeit zweier Objekte.s(a,b)s(a,b)s(a,b) Wir wissen sicher, dass diese Eigenschaften hat:sss Die Ähnlichkeitswerte sind reelle Zahlen zwischen 0 und einschließlich 1. Nur die Objekte, die selbstidentisch sind, haben Punktzahlen von 1. Also impliziert …



1
Wie kann man ein einfaches Perzeptron kernelisieren?
Klassifizierungsprobleme mit nichtlinearen Grenzen können nicht mit einem einfachen Perzeptron gelöst werden . Der folgende R-Code dient nur zur Veranschaulichung und basiert auf diesem Beispiel in Python. nonlin <- function(x, deriv = F) { if (deriv) x*(1-x) else 1/(1+exp(-x)) } X <- matrix(c(-3,1, -2,1, -1,1, 0,1, 1,1, 2,1, 3,1), ncol=2, …


1
Jenseits der Fischerkerne
Für eine Weile schien es, als ob Fisher Kernels populär werden könnten, da sie eine Möglichkeit zu sein schienen, Kernel aus probabilistischen Modellen zu konstruieren. Ich habe sie jedoch selten in der Praxis gesehen, und ich bin der festen Überzeugung, dass sie in der Regel nicht sehr gut funktionieren. Sie …

2
Welche Kernel-Methode liefert die besten Wahrscheinlichkeitsausgaben?
Kürzlich habe ich Platt's Skalierung von SVM-Ausgaben verwendet, um die Wahrscheinlichkeiten von Standardereignissen abzuschätzen. Direktere Alternativen scheinen "Kernel Logistic Regression" (KLR) und die zugehörige "Import Vector Machine" zu sein. Kann jemand sagen, welche Kernel-Methode, die Wahrscheinlichkeitsausgaben liefert, derzeit Stand der Technik ist? Gibt es eine R-Implementierung von KLR? Vielen Dank …

1
Was sind die Einschränkungen von Kernel-Methoden und wann sollten Kernel-Methoden verwendet werden?
Kernel-Methoden sind bei vielen überwachten Klassifizierungsaufgaben sehr effektiv. Was sind die Einschränkungen von Kernel-Methoden und wann sollten Kernel-Methoden verwendet werden? Was sind die Fortschritte der Kernel-Methoden, insbesondere im Zeitalter großer Datenmengen? Was ist der Unterschied zwischen Kernel-Methoden und dem Lernen mehrerer Instanzen? Wenn die Daten sind 500x10000, 500ist die Anzahl …

1
Kernel Ridge Regressionseffizienz
Die Ridge-Regression kann ausgedrückt werden als wobei die vorhergesagte Bezeichnung ist , die Identifizierungsmatrix, das Objekt, für das wir eine Bezeichnung finden möchten, und die Matrix von Objekten so dass:y^=(X′X+aId)−1Xxy^=(X′X+aId)−1Xx\hat{y} = (\mathbf{X'X} + a\mathbf{I}_d)^{-1}\mathbf{X}xy^y^\hat{y}IdId\mathbf{I}_dd×dd×dd \times dxx\mathbf{x}XX\mathbf{X}n×dn×dn \times dnnnxi=(xi,1,...,xi,d)∈Rdxi=(xi,1,...,xi,d)∈Rd\mathbf{x}_i = (x_{i,1}, ..., x_{i,d})\in \mathbb{R}^d X=⎛⎝⎜⎜⎜⎜⎜x1,1x2,1⋮xn,1x1,2x2,2⋮x1,2……⋱…x1,dx2,d⋮xn,d⎞⎠⎟⎟⎟⎟⎟X=(x1,1x1,2…x1,dx2,1x2,2…x2,d⋮⋮⋱⋮xn,1x1,2…xn,d) \mathbf{X} = \begin{pmatrix} x_{1,1} & x_{1,2} …

1
R lineare Regression kategoriale Variable "versteckter" Wert
Dies ist nur ein Beispiel, auf das ich mehrmals gestoßen bin, daher habe ich keine Beispieldaten. Ausführen eines linearen Regressionsmodells in R: a.lm = lm(Y ~ x1 + x2) x1ist eine stetige Variable. x2ist kategorisch und hat drei Werte, z. B. "Niedrig", "Mittel" und "Hoch". Die von R gegebene Ausgabe …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

1
Regularisierte lineare vs. RKHS-Regression
Ich untersuche den Unterschied zwischen Regularisierung in der RKHS-Regression und linearer Regression, aber es fällt mir schwer, den entscheidenden Unterschied zwischen beiden zu erfassen. Bei gegebenen Eingabe-Ausgabe-Paaren möchte ich eine Funktion wie folgt schätzen: wobei eine Kernelfunktion ist. Die Koeffizienten können entweder durch Lösen von wobei mit etwas Missbrauch der …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.