Ich habe gelesen, dass es vorteilhaft ist, bestimmte Transformationen allgemeiner Funktionen auf Datensätze anzuwenden, bevor sie auf Modelle für maschinelles Lernen treffen. Diese basieren auf der Verteilung der Funktionen des Datensatzes. Beispiel: Anwenden von Protokolltransformationen auf verzerrte normalverteilte Features. Einige Beispiele hier .
Soweit ich weiß, ist "Automatic Feature Engineering" (auch bekannt als "Feature Learning") ein Hauptsegen des Deep Learning. Ich weiß, dass dies Funktionskombinationen umfasst. aber meine Vermutung sagt, dass dies auch gelernte Feature-Transformationen gemäß den oben genannten beinhaltet? Wenn Sie also tiefe Netzwerke mit gut abgestimmten Hypern verwenden, können Feature-Transformationen sicher aus der Verantwortung des Menschen entfernt werden - das heißt, werfen Sie all dieses log / square / box-cox-Zeug weg?
[Bearbeiten] Extra: Behandelt dies auch die "Funktionsauswahl" (Entscheidung, welche Eingaben nicht enthalten sein sollen) für Sie?