Lokale Methoden wie K-NN sind in manchen Situationen sinnvoll.
Ein Beispiel, das ich in der Schule gemacht habe, hatte mit der Vorhersage der Druckfestigkeit verschiedener Mischungen von Zementbestandteilen zu tun. Alle diese Inhaltsstoffe waren in Bezug auf die Reaktion oder die Reaktion relativ nicht flüchtig, und KNN machte zuverlässige Vorhersagen. Mit anderen Worten, keine der unabhängigen Variablen hatte eine unverhältnismäßig große Varianz, um dem Modell entweder einzeln oder möglicherweise durch gegenseitige Interaktion zu verleihen.
Nehmen Sie dies mit einem Körnchen Salz, weil ich keine Datenuntersuchungstechnik kenne, die dies schlüssig zeigt, aber intuitiv erscheint es vernünftig, wenn Ihre Merkmale einen angemessenen Grad an Abweichungen aufweisen, ich weiß nicht, welchen Anteil Sie haben könnten KNN-Kandidat. Ich würde gerne wissen, ob Studien und daraus resultierende Techniken zu diesem Zweck entwickelt wurden.
Wenn Sie es aus einer verallgemeinerten Domänenperspektive betrachten, gibt es eine breite Klasse von Anwendungen, bei denen ähnliche "Rezepte" ähnliche Ergebnisse liefern. Dies schien sicherlich die Situation zu beschreiben, in der die Ergebnisse des Vermischens von Zement vorhergesagt wurden. Ich würde sagen, wenn Sie Daten hätten, die sich gemäß dieser Beschreibung verhalten, und zusätzlich, dass Ihr Abstandsmaß für die vorliegende Domäne natürlich ist und Sie ausreichende Daten hätten, würde ich mir vorstellen, dass Sie nützliche Ergebnisse von KNN oder einer anderen lokalen Methode erhalten sollten .
Sie profitieren auch von einer extrem geringen Verzerrung, wenn Sie lokale Methoden anwenden. Manchmal gleichen generalisierte additive Modelle (GAM) Bias und Varianz aus, indem jede einzelne Variable mit KNN so angepasst wird, dass:
y^=f1(x1)+f2(x2)+⋯+fn(xn)+ϵ
Der additive Anteil (die Pluszeichen) schützt vor hoher Varianz bei Verwendung von KNN anstelle von fn(xn)
Ich würde KNN nicht so schnell abschreiben. Es hat seinen Platz.