Sowohl PyTorch als auch Tensorflow Fold sind Deep-Learning-Frameworks für Situationen, in denen die Eingabedaten eine ungleichmäßige Länge oder Dimension aufweisen ( dh Situationen, in denen dynamische Diagramme nützlich oder erforderlich sind).
Ich würde gerne wissen, wie sie im Sinne von Paradigmen, auf die sie sich stützen (z. B. dynamisches Batching) und deren Auswirkungen, Dinge, die in jedem einzelnen implementiert werden können / nicht, Schwächen / Stärken usw. vergleichen.
Ich beabsichtige, diese Informationen zu verwenden, um eines davon auszuwählen und damit zu beginnen, dynamische Berechnungsdiagramme zu untersuchen, aber ich habe keine bestimmte Aufgabe im Sinn.
Anmerkung 1: Andere dynamische Berechnungsgraph-Frameworks wie DyNet oder Chainer sind ebenfalls im Vergleich willkommen, aber ich möchte mich auf PyTorch und Tensorflow Fold konzentrieren, da ich denke, dass sie die am häufigsten verwendeten sind / werden.
Hinweis 2: Ich habe diesen Hackernews-Thread auf PyTorch mit einigen spärlichen Informationen gefunden, aber nicht viel.
Hinweis 3: Ein weiterer relevanter Hackernews-Thread zu Tensorflow Fold enthält einige Informationen zum Vergleich.
Hinweis 4: Relevanter Reddit-Thread .
Anmerkung 5: Relevanter Fehler im Tensorflow Fold-Github , der eine wichtige Einschränkung feststellt : Unmöglichkeit, während der Auswertung eine bedingte Verzweigung durchzuführen .
Anmerkung 6: Diskussion im Pytorch-Forum über Eingaben variabler Länge in Bezug auf die verwendeten Algorithmen (z. B. dynamisches Batching).