Maschinelles Lernen (ML) verwendet stark lineare und logistische Regressionstechniken. Es stützt sich auch auf Feature - Engineering - Techniken ( feature transform, kernelusw.).
Warum wird in ML nichts über variable transformation(zB power transformation) erwähnt? (Ich höre zum Beispiel nie davon, Stamm- oder Protokolldaten für Features zu verwenden, normalerweise werden nur Polynome oder RBFs verwendet.) Warum kümmern sich ML-Experten auch nicht um Feature-Transformationen für die abhängige Variable? (Zum Beispiel höre ich nie von der Log-Transformation von y; sie transformieren nur y nicht.)
Änderungen: Vielleicht ist die Frage nicht definitiv, meine eigentliche Frage lautet: "Ist die Umwandlung von Leistung in Variablen in ML nicht wichtig?"