Ist es möglich, eine Faustregel für die Größe neuronaler Netze abzugeben, die auf gängigen GPUs für Endverbraucher trainiert werden können ? Zum Beispiel:
Das Papier Emergence of Locomotion (Reinforcement) trainiert ein Netzwerk unter Verwendung der Tanh-Aktivierung der Neuronen. Sie haben eine 3-lagige NN mit 300.200.100 Einheiten für den Planar Walker . Aber sie melden nicht die Hardware und Zeit ...
Aber könnte eine Faustregel entwickelt werden? Auch nur basierend auf aktuellen empirischen Ergebnissen, so zum Beispiel:
X-Einheiten, die die Sigmoid-Aktivierung verwenden, können auf einem 1060 Y-Lerniterationen pro Stunde ausführen.
Oder die Verwendung der Aktivierungsfunktion a anstelle von b führt zu einer zeitlichen Leistungsminderung.
Wenn ein Student / Forscher / Neugieriger eine GPU kaufen wird, um mit diesen Netzwerken herumzuspielen, wie entscheiden Sie, was Sie bekommen? Ein 1060 ist anscheinend die Einstiegsoption für das Budget, aber wie können Sie beurteilen, ob es nicht klüger ist, nur ein beschissenes Netbook zu kaufen, anstatt einen Hochleistungs-Desktop zu erstellen und die gesparten US-Dollar für die On-Demand-Cloud-Infrastruktur auszugeben?
Motivation für die Frage: Ich habe gerade einen 1060 gekauft und mich gefragt, ob ich nur das $ behalten und ein Google Cloud-Konto einrichten sollte. Und wenn ich meine Masterarbeitssimulation auf der GPU ausführen kann.