Wenn tiefe neuronale Netze als universelle Funktionsapproximatoren betrachtet werden, ist eine Basiserweiterung wirklich notwendig? Oder wäre dies fallspezifisch? Wenn man beispielsweise drei quantitative X-Variablen hat, wäre es dann von Vorteil, die Anzahl der Variablen durch Einführung von Wechselwirkungen, Polynomen usw. zu erweitern? Dies scheint beispielsweise bei RFs und SVM von Nutzen zu sein, aber ich bin mir nicht sicher, ob dies eine gute Strategie für neuronale Netze wäre.
Wenn dies vielleicht zu weit gefasst oder vage ist, könnte mich jemand auf relevante Informationen zur Basiserweiterung und zum Feature-Engineering im Kontext von Deep Nets verweisen?