Nehmen wir an, ich habe einen logistischen Regressionsklassifikator. Beim normalen Batch-Lernen hätte ich einen Regularizer-Term, um eine Überanpassung zu verhindern und meine Gewichte klein zu halten. Ich würde auch meine Funktionen normalisieren und skalieren.
In einer Online-Lernumgebung erhalte ich einen kontinuierlichen Datenstrom. Ich führe mit jedem Beispiel ein Gefälle-Update durch und verwerfe es dann. Soll ich beim Online-Lernen den Begriff "Feature-Skalierung und Regularisierung" verwenden? Wenn ja, wie kann ich das machen? Zum Beispiel habe ich keine Trainingsdaten zum Skalieren. Ich habe auch keine Validierung festgelegt, um meinen Regularisierungsparameter zu optimieren. Wenn nein, warum nicht?
In meinem Online-Lernen erhalte ich kontinuierlich einen Strom von Beispielen. Für jedes neue Beispiel mache ich eine Vorhersage. Im nächsten Zeitschritt erhalte ich dann das eigentliche Ziel und aktualisiere den Gefälleverlauf.