Welche Variablen- / Merkmalsauswahl bevorzugen Sie für die binäre Klassifizierung, wenn der Lernsatz viel mehr Variablen / Merkmale als Beobachtungen enthält? Ziel ist es, zu diskutieren, durch welches Merkmalauswahlverfahren der Klassifizierungsfehler am besten reduziert wird.
Wir können Notationen fix für Konsistenz: für , lassen Sie { x i 1 , ... , x i n i } wird die Lern Reihe von Beobachtungen aus der Gruppe i . So n 0 + n 1 = n ist die Größe des Lernsatzes. Wir setzen p als die Anzahl der Merkmale (dh die Dimension des Merkmalsraums). Sei x [ i ] die i- te Koordinate von x .
Bitte geben Sie vollständige Referenzen an, wenn Sie die Details nicht angeben können.
BEARBEITEN (kontinuierlich aktualisiert): In den Antworten unten vorgeschlagene Verfahren
- Gierige Vorwärtsauswahl Variablenauswahlverfahren für die binäre Klassifizierung
- Rückwärtseliminierung Variablenauswahlverfahren für die binäre Klassifizierung
- Metropolis Scanning / MCMC Variablenauswahlverfahren für die binäre Klassifizierung
- bestrafte logistische Regression Variablenauswahlverfahren für die binäre Klassifikation
Da dies Community-Wiki ist, kann es mehr Diskussionen und Updates geben
Ich habe eine Bemerkung: In gewissem Sinne geben Sie alle eine Prozedur an, die die Reihenfolge der Variablen, aber nicht die Auswahl der Variablen erlaubt (Sie sind bei der Auswahl der Anzahl der Features ziemlich ausweichend, ich vermute, Sie alle verwenden die Kreuzvalidierung?). Können Sie dies verbessern? die antworten in diese richtung? (Da dies Community - Wiki ist, müssen Sie nicht der Antwortschreiber sein, um Informationen zum Auswählen der Anzahl der Variablen hinzuzufügen. Ich habe hier eine Frage in diese Richtung gestellt. Kreuzvalidierung in sehr hoher Dimension (zum Auswählen der Anzahl der Variablen) verwendete Variablen in sehr hochdimensionaler Klassifikation) )