Die Hauptidee von k-Nearest-Neighbor berücksichtigt die nächstgelegenen Punkte und entscheidet über die Klassifizierung der Daten mit Stimmenmehrheit. Wenn ja, sollte es keine Probleme mit höherdimensionalen Daten geben, da Methoden wie lokalitätssensitives Hashing die nächsten Nachbarn effizient finden können.
Darüber hinaus kann die Merkmalsauswahl mit Bayes'schen Netzwerken die Datendimension verringern und das Lernen erleichtern.
In diesem Übersichtsartikel von John Lafferty zum statistischen Lernen wird jedoch darauf hingewiesen, dass nichtparametrisches Lernen in hochdimensionalen Merkmalsräumen immer noch eine Herausforderung und ungelöst ist.
Was läuft falsch?