Ich denke, es sind zwei verschiedene Dinge,
Beginnen wir mit der Funktionsauswahl :
Diese Technik wird zur Auswahl der Merkmale verwendet, die den größten Teil der Zielvariablen erklären (hat eine Korrelation mit der Zielvariablen). Dieser Test wird ausgeführt, kurz bevor das Modell auf die Daten angewendet wird.
Um es besser zu erklären, lassen Sie uns ein Beispiel betrachten: Es gibt 10 Features und 1 Zielvariable, 9 Features erklären 90% der Zielvariablen und 10 Features zusammen erklären 91% der Zielvariablen. Die Variable 1 macht also keinen großen Unterschied, daher entfernen Sie diese Variable in der Regel vor der Modellierung (dies ist auch für das Unternehmen subjektiv). Ich kann auch als Predictor Importance bezeichnet werden.
Lassen Sie uns nun über Feature-Extraktion sprechen ,
Was beim unbeaufsichtigten Lernen verwendet wird, Extraktion von Konturen in Bildern, Extraktion von Bi-Gramm aus einem Text, Extraktion von Phonemen aus der Aufnahme von gesprochenem Text. Wenn Sie nichts über die Daten wissen, wie zum Beispiel kein Datenwörterbuch, zu viele Funktionen, was bedeutet, dass die Daten nicht in einem verständlichen Format vorliegen. Anschließend wenden Sie diese Technik an, um einige Funktionen zu erhalten, mit denen die meisten Daten erklärt werden. Die Merkmalsextraktion umfasst eine Transformation der Merkmale, die häufig nicht umkehrbar ist, da beim Reduzieren der Dimensionalität einige Informationen verloren gehen.
Sie können Feature-Extraktion auf die angegebenen Daten anwenden, um Features zu extrahieren, und dann Feature-Auswahl in Bezug auf die Zielvariable anwenden, um die Teilmenge auszuwählen, die bei der Erstellung eines guten Modells mit guten Ergebnissen hilfreich sein kann.
Sie können durch diese Link-1 , Link-2 gehenZum besseren Verständnis .
wir können sie in R, Python, SPSS implementieren.
Lass es mich wissen, wenn du weitere Klarstellungen benötigst.