Bei der Betrachtung der Neuronalen Netze mit radialer Basisfunktion ist mir aufgefallen, dass immer nur die Verwendung einer verborgenen Schicht empfohlen wird, während bei neuronalen Netzen mit mehrschichtigen Perzeptronen mehr Schichten als besser angesehen werden.
Angesichts der Tatsache, dass RBF-Netzwerke mit der Version der Rückübertragung trainiert werden können, gibt es Gründe, warum tiefere RBF-Netzwerke nicht funktionieren oder dass eine RBF-Schicht nicht als vorletzte oder erste Schicht in einem tiefen MLP-Netzwerk verwendet werden kann? (Ich dachte, die vorletzte Ebene könnte im Wesentlichen auf die von den vorherigen MLP-Ebenen erlernten Funktionen trainiert werden.)