Ich habe mit logistischer Regression mit verschiedenen Batch-Optimierungsalgorithmen (konjugierter Gradient, Newton-Raphson und verschiedene Quasinewton-Methoden) herumgespielt. Eine Sache, die mir aufgefallen ist, ist, dass das Hinzufügen von mehr Daten zu einem Modell manchmal dazu führen kann, dass das Training des Modells viel weniger Zeit in Anspruch nimmt. Für jede Iteration müssen mehr Datenpunkte betrachtet werden. Die Gesamtzahl der erforderlichen Iterationen kann jedoch erheblich sinken, wenn weitere Daten hinzugefügt werden. Dies geschieht natürlich nur bei bestimmten Datensätzen, und irgendwann führt das Hinzufügen weiterer Daten dazu, dass die Optimierung langsamer wird.
Ist das ein gut untersuchtes Phänomen? Wo finde ich weitere Informationen darüber, warum / wann dies passieren könnte?