Meine Daten bestehen aus mehreren kontinuierlichen Messungen und einigen Dummy-Variablen, die die Jahre darstellen, in denen die Messungen durchgeführt wurden. Jetzt möchte ich ein neuronales Netzwerk mit den Daten lernen. Daher normalisiere ich zScore alle Variablen, einschließlich der Dummy-Variablen. Ich frage mich jedoch, ob dies ein vernünftiger Ansatz ist, da die Normalisierung der Dummy-Variablen ihre Bereiche verändert, was sie vermutlich weniger vergleichbar macht, wenn sich ihre Verteilungen unterscheiden. Andererseits kann es auch fraglich sein, die Dummy-Variablen nicht zu normalisieren, da ihr Einfluss auf die Netzwerkausgabe ohne Normalisierung möglicherweise nicht optimal ist.
Was ist der beste Ansatz, um mit Dummy-Variablen umzugehen, sie zu normalisieren (zScore) oder sie einfach so zu lassen, wie sie sind?