Gilt der universelle Approximationssatz für neuronale Netze für eine Aktivierungsfunktion (Sigmoid, ReLU, Softmax usw.) oder ist er auf Sigmoidfunktionen beschränkt?
Update: Wie Shimao in den Kommentaren hervorhebt, gilt es für absolut keine Funktion. Für welche Klasse von Aktivierungsfunktionen gilt dies?