Als «pytorch» getaggte Fragen

1
PyTorch vs. Tensorflow Fold
Sowohl PyTorch als auch Tensorflow Fold sind Deep-Learning-Frameworks für Situationen, in denen die Eingabedaten eine ungleichmäßige Länge oder Dimension aufweisen ( dh Situationen, in denen dynamische Diagramme nützlich oder erforderlich sind). Ich würde gerne wissen, wie sie im Sinne von Paradigmen, auf die sie sich stützen (z. B. dynamisches Batching) …

2
Was ist die Verwendung von torch.no_grad in Pytorch?
Ich bin neu in Pytorch und habe mit diesem Github-Code begonnen. Ich verstehe den Kommentar in Zeile 60-61 im Code nicht "because weights have requires_grad=True, but we don't need to track this in autograd". Ich habe verstanden, dass wir requires_grad=Truedie Variablen erwähnen , die wir zur Berechnung der Gradienten für …
18 pytorch 


1
PyTorch vs. Tensorflow eifrig
Google hat kürzlich in tensorflow's Nightly Builds den Eager- Modus aufgenommen, eine unverzichtbare API für den Zugriff auf Tensorflow-Berechnungsfunktionen. Wie kann Tensorflow eifrig mit PyTorch verglichen werden? Einige Aspekte, die den Vergleich beeinflussen könnten, könnten sein: Vor- und Nachteile von eager aufgrund seines statischen Graph-Erbes (z. B. Namen in Knoten). …

2
Seltsames Verhalten mit Adam Optimizer beim zu langen Training
Ich versuche, ein einzelnes Perzeptron (1000 Eingabeeinheiten, 1 Ausgabe, keine versteckten Ebenen) auf 64 zufällig generierten Datenpunkten zu trainieren. Ich verwende Pytorch mit dem Adam-Optimierer: import torch from torch.autograd import Variable torch.manual_seed(545345) N, D_in, D_out = 64, 1000, 1 x = Variable(torch.randn(N, D_in)) y = Variable(torch.randn(N, D_out)) model = torch.nn.Linear(D_in, …


Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.