Als «k-nearest-neighbour» getaggte Fragen

k-Nearest-Neighbor-Klassifizierer Diese Klassifizierer sind speicherbasiert und erfordern kein Modell, um angepasst zu werden. Wenn ein Abfragepunkt x0 gegeben ist, finden wir die k Trainingspunkte x (r), r = 1, ..., k, die in der Entfernung von x0 am nächsten liegen, und klassifizieren dann unter Verwendung der Mehrheitsabstimmung unter den k Nachbarn.

1
Kernelised k Nächster Nachbar
Ich bin neu in Kerneln und habe beim Versuch, kNN zu kerneln, einen Haken bekommen. Vorbereitungen Ich verwende einen Polynomkern: K(x,y)=(1+⟨x,y⟩)dK(x,y)=(1+⟨x,y⟩)dK(\mathbf{x},\mathbf{y}) = (1 + \langle \mathbf{x},\mathbf{y} \rangle)^d Ihr typischer euklidischer kNN verwendet die folgende Abstandsmetrik: d(x,y)=||x−y||d(x,y)=||x−y||d(\mathbf{x}, \mathbf{y}) = \vert\vert \mathbf{x} - \mathbf{y} \vert\vert Lassen Sie \ mathbf {x} in einen …

3
Erklärung der Formel für den Median, der dem Ursprung von N Proben aus der Einheitskugel am nächsten liegt
In Elements of Statistical Learning wird ein Problem eingeführt, um Probleme mit k-nn in hochdimensionalen Räumen hervorzuheben. Es gibt NNN Datenpunkte, die gleichmäßig in einer ppp dimensionalen Einheitskugel verteilt sind. Der mittlere Abstand vom Ursprung zum nächsten Datenpunkt wird durch den Ausdruck angegeben: d(p,N)=(1−(12)1N)1pd(p,N)=(1−(12)1N)1pd(p,N) = \left(1-\left(\frac{1}{2}\right)^\frac{1}{N}\right)^\frac{1}{p} Wenn N=1N=1N=1 , zerfällt …


1
Vorteile von Jeffries Matusita Entfernung
Laut einem Artikel, den ich lese, wird häufig der Abstand zwischen Jeffries und Matusita verwendet. Aber ich konnte nicht viele Informationen darüber finden, außer der folgenden Formel JMD (x, y) =∑(xi−−√2−yi−−√2)2−−−−−−−−−−−−−√2∑(xi2−yi2)22\sqrt[2]{\sum(\sqrt[2]{x_i}-\sqrt[2]{y_i})^2} Es ähnelt dem euklidischen Abstand mit Ausnahme der Quadratwurzel E (x, y) =∑(xi−yi)2−−−−−−−−−−√2∑(xi−yi)22\sqrt[2]{\sum(x_i-y_i)^2} Die JM-Entfernung soll hinsichtlich der Klassifizierung …

4
Fluch der Dimensionalität: kNN-Klassifikator
Ich lese Kevin Murphys Buch: Maschinelles Lernen - Eine probabilistische Perspektive. Im ersten Kapitel erklärt der Autor den Fluch der Dimensionalität und es gibt einen Teil, den ich nicht verstehe. Als Beispiel gibt der Autor an: Beachten Sie, dass die Eingaben gleichmäßig entlang eines D-dimensionalen Einheitswürfels verteilt sind. Angenommen, wir …


1
Der No-Free-Lunch-Satz und die K-NN-Konsistenz
Beim rechnerischen Lernen besagt das NFL-Theorem, dass es keinen universellen Lernenden gibt. Für jeden Lernalgorithmus gibt es eine Verteilung, die bewirkt, dass der Lernende mit hoher Wahrscheinlichkeit eine Hypotese mit einem großen Fehler ausgibt (obwohl es eine Hypotese mit geringem Fehler gibt). Die Schlussfolgerung ist, dass zum Lernen die Hypotese-Klasse …

2
K-nächster Nachbar mit stetigen und binären Variablen
Ich habe einen Datensatz mit Spalten a b c(3 Attribute). aist dabei numerisch und stetig bund ckategorisch mit jeweils zwei Ebenen. Ich verwende die K-Nearest Neighbors-Methode zum Klassifizieren aund bWeiter c. Um die Entfernungen messen zu können, transformiere ich meinen Datensatz durch Entfernen bund Hinzufügen von b.level1und b.level2. Wenn die …

3
Warum ist KNN nicht „modellbasiert“?
ESL Kapitel 2.4 scheint die lineare Regression als "modellbasiert" zu klassifizieren, da sie annimmt , während für k-nächste Nachbarn keine ähnliche Näherung angegeben wird. Aber machen nicht beide Methoden Annahmen über f ( x ) ?f( x ) ≤ x ≤ βf(x)≈x⋅βf(x) \approx x\cdot\betaf( x )f(x)f(x) Später in 2.4 heißt …

4
Wie kann ich bei einer 10D-MCMC-Kette deren posterioren Modus (e) in R bestimmen?
Frage: Nehmen wir an, ich bin bereit, Ihnen mit einer 10-dimensionalen MCMC-Kette eine Matrix der Zeichnungen zu übergeben: 100.000 Iterationen (Zeilen) mit 10 Parametern (Spalten). Wie kann ich die posterioren Modi am besten identifizieren? Ich beschäftige mich besonders mit mehreren Modi. Hintergrund:Ich betrachte mich als einen rechnerisch versierten Statistiker, aber …

1
Helfen Sie mit, kNN für mehrdimensionale Daten zu verstehen
Ich verstehe die Prämisse des kNN-Algorithmus für räumliche Daten. Und ich weiß, dass ich diesen Algorithmus erweitern kann, um ihn für jede kontinuierliche Datenvariable (oder für Nenndaten mit Hamming-Abstand) zu verwenden. Welche Strategien werden jedoch beim Umgang mit höherdimensionalen Daten angewendet? Angenommen, ich habe eine Datentabelle (x [1], x [2], …


3
KNN: 1 nächster Nachbar
Meine Frage bezieht sich auf den 1-nächsten Nachbarn-Klassifikator und auf eine Aussage, die in dem ausgezeichneten Buch Die Elemente des statistischen Lernens von Hastie, Tibshirani und Friedman gemacht wurde. Die Aussage lautet (S. 465, Abschnitt 13.3): "Da nur der Trainingspunkt verwendet wird, der dem Abfragepunkt am nächsten liegt, ist die …

1
Vorhersageintervalle für die kNN-Regression
Ich möchte Vorhersageintervalle für Vorhersagen berechnen, die durch kNN-Regression gemacht wurden. Ich kann keine explizite Referenz zur Bestätigung finden, daher lautet meine Frage: Ist dieser Ansatz zur Berechnung der Vorhersageintervalle korrekt? Ich habe einen Referenzdatensatz, in dem jede Zeile ein Ort ist (z. B. Stadt). Ich habe zwei Merkmale (z. …


Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.