Entscheidungsbäume Variable (Feature) Skalierung und Variable (Feature) Normalisierung (Tuning) in welchen Implementierungen erforderlich?


10

In vielen Algorithmen für maschinelles Lernen ist die Feature-Skalierung (auch bekannt als variable Skalierung, Normalisierung) ein häufiger Vorverarbeitungsschritt. Wikipedia - Feature-Skalierung - Diese Frage war knapp. Frage 41704 - Wie und warum funktionieren Normalisierung und Feature-Skalierung?

Ich habe zwei Fragen speziell in Bezug auf Entscheidungsbäume:

  1. Gibt es Implementierungen von Entscheidungsbäumen, die eine Feature-Skalierung erfordern würden? Ich habe den Eindruck, dass die Aufteilungskriterien der meisten Algorithmen nicht gleich skalierbar sind.
  2. Betrachten Sie diese Variablen: (1) Einheiten, (2) Stunden, (3) Einheiten pro Stunde - lassen Sie diese drei Variablen am besten "wie sie sind", wenn sie in einen Entscheidungsbaum eingespeist werden, oder stoßen wir auf einen Konflikt da die "normalisierte" Variable (3) auf (1) und (2) bezogen werden kann? Das heißt, würden Sie diese Situation angreifen, indem Sie alle drei Variablen in den Mix werfen, oder würden Sie normalerweise eine Kombination der drei auswählen oder einfach die Funktion "normalisiert / standardisiert" verwenden (3)?

Antworten:


6

Für 1 erfordern Entscheidungsbäume im Allgemeinen normalerweise keine Skalierung. Es hilft jedoch bei der Datenvisualisierung / -manipulation und kann nützlich sein, wenn Sie die Leistung mit anderen Daten oder anderen Methoden wie SVM vergleichen möchten.

Für 2 ist dies eine Frage der Abstimmung. Einheiten / Stunde können als eine Art variabler Interaktion angesehen werden und eine unterschiedliche Vorhersagekraft haben. Dies hängt jedoch wirklich von Ihren Daten ab. Ich würde mit und ohne versuchen, ob es einen Unterschied gibt.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.