Dies sind meine Trainingsdaten: 200.000 Beispiele x 10.000 Funktionen. Meine Trainingsdatenmatrix ist also - 200.000 x 10.000.
Ich habe es geschafft, dies in einer flachen Datei ohne Speicherprobleme zu speichern, indem ich jeden Datensatz einzeln (ein Beispiel nach dem anderen) gespeichert habe, während ich die Funktionen für jedes Beispiel generierte.
Wenn ich jetzt Milch , SVM- Licht oder einen anderen Algorithmus für maschinelles Lernen verwende, versucht alles, die gesamten Trainingsdaten in den Speicher zu laden, anstatt sie einzeln zu trainieren. Ich habe jedoch nur 8 GB RAM, daher kann ich nicht so vorgehen.
Wissen Sie überhaupt, dass ich den Algorithmus Datensatz für Datensatz trainieren könnte? Das heißt, so dass ich zu jedem Zeitpunkt während des Trainings nur einen Datensatz in den Speicher geladen habe.