Auf meinem Dell Core i7 - 16 GB RAM - 4 GB 960 m GPU-Laptop arbeite ich an einem Projekt zur Klassifizierung von Lungen-CT-Bildern mithilfe von 3D-CNN. Ich verwende die CPU-Version von Tensorflow. Die Bilder werden als Numpy-Array-Größe (25,50,50) vorbereitet.
Mein CNN-Modell hatte 2 Conv-Schichten, zwei Maxpool-Schichten, eine FC-Schicht und eine Ausgangsschicht. Mit dieser Architektur konnte ich das Modell mit ungefähr (5000 bis 6000) Beispielen trainieren. Nach dem Hinzufügen weiterer Ebenen verfügt mein Modell nun über 6 Conv-Ebenen, 3 Max-Pool-Ebenen, FC und Ausgabeebene. Mein Problem ist, dass nach dem Ändern der Architektur mit nur mehr als 1000 Samples mein Speicher gefüllt wird und ich einen Speicherfehler erhalte. Ich habe versucht, kleinere Chargen zu erstellen, aber jedes Mal wurde der gleiche Fehler angezeigt. Ich habe zwei Fragen:
Warum benötigt das Modell durch Hinzufügen weiterer Ebenen mehr Speicher?
Gibt es eine Möglichkeit, mit dieser Art von Problem umzugehen?