Maschinelles Lernen (ML) verwendet stark lineare und logistische Regressionstechniken. Es stützt sich auch auf Feature - Engineering - Techniken ( feature transform
, kernel
usw.).
Warum wird in ML nichts über variable transformation
(zB power transformation
) erwähnt? (Ich höre zum Beispiel nie davon, Stamm- oder Protokolldaten für Features zu verwenden, normalerweise werden nur Polynome oder RBFs verwendet.) Warum kümmern sich ML-Experten auch nicht um Feature-Transformationen für die abhängige Variable? (Zum Beispiel höre ich nie von der Log-Transformation von y; sie transformieren nur y nicht.)
Änderungen: Vielleicht ist die Frage nicht definitiv, meine eigentliche Frage lautet: "Ist die Umwandlung von Leistung in Variablen in ML nicht wichtig?"