Viele Aktivierungsfunktionen in neuronalen Netzen (Sigmoid, Tanh, Softmax) sind monoton, kontinuierlich und differenzierbar (mit Ausnahme einiger Punkte, an denen keine Ableitung vorhanden ist).
Ich verstehe den Grund für Kontinuität und Differenzierbarkeit, kann aber einen Grund für Monotonität nicht wirklich verstehen.