PyTorch ist ein Deep-Learning-Framework, das einen dynamischen Rechengraphen implementiert, mit dem Sie das Verhalten Ihres neuronalen Netzwerks im laufenden Betrieb ändern und eine automatische Rückwärtsdifferenzierung durchführen können.
Ich suchte nach alternativen Möglichkeiten, um ein trainiertes Modell in PyTorch zu speichern. Bisher habe ich zwei Alternativen gefunden. torch.save () zum Speichern eines Modells und torch.load () zum Laden eines Modells. model.state_dict () zum Speichern eines trainierten Modells und model.load_state_dict () zum Laden des gespeicherten Modells. Ich bin auf …
Ich würde gerne wissen, ob pytorchmeine GPU verwendet wird. Es ist möglich zu erkennen, nvidia-smiob während des Vorgangs Aktivitäten von der GPU ausgeführt werden, aber ich möchte, dass etwas in ein pythonSkript geschrieben wird. Gibt es eine Möglichkeit dazu?
Gibt es eine Möglichkeit, die Zusammenfassung eines Modells in PyTorch wie model.summary()in Keras wie folgt auszudrucken ? Model Summary: ____________________________________________________________________________________________________ Layer (type) Output Shape Param # Connected to ==================================================================================================== input_1 (InputLayer) (None, 1, 15, 27) 0 ____________________________________________________________________________________________________ convolution2d_1 (Convolution2D) (None, 8, 15, 27) 872 input_1[0][0] ____________________________________________________________________________________________________ maxpooling2d_1 (MaxPooling2D) (None, 8, …
Ich lese die Dokumentation von PyTorch durch und habe ein Beispiel gefunden, in dem sie schreiben gradients = torch.FloatTensor([0.1, 1.0, 0.0001]) y.backward(gradients) print(x.grad) Dabei war x eine Anfangsvariable, aus der y konstruiert wurde (ein 3-Vektor). Die Frage ist, was sind die Argumente 0.1, 1.0 und 0.0001 des Gradiententensors? Die Dokumentation …
Die Methode zero_grad()muss während des Trainings aufgerufen werden. Die Dokumentation ist jedoch nicht sehr hilfreich | zero_grad(self) | Sets gradients of all model parameters to zero. Warum müssen wir diese Methode aufrufen?
Ich habe versucht zu replizieren, wie man das Packen für Sequenzeingaben variabler Länge für rnn verwendet, aber ich denke, ich muss zuerst verstehen, warum wir die Sequenz "packen" müssen. Ich verstehe, warum wir sie "auffüllen" müssen, aber warum ist "Packen" (durch pack_padded_sequence) notwendig? Jede Erklärung auf hoher Ebene wäre willkommen!
Ich habe dieses Beispiel eines LSTM-Sprachmodells auf Github (Link) durchgearbeitet . Was es im Allgemeinen macht, ist mir ziemlich klar. Aber ich habe immer noch Schwierigkeiten zu verstehen, was das Aufrufen contiguous()bewirkt, was im Code mehrmals vorkommt. Beispielsweise werden in Zeile 74/75 der Codeeingabe und Zielsequenzen des LSTM erstellt. Daten …
In numpy verwenden wir ndarray.reshape()zum Umformen eines Arrays. Mir ist aufgefallen, dass in Pytorch Menschen torch.view(...)für den gleichen Zweck verwenden, aber zur gleichen Zeit gibt es auch eine torch.reshape(...)existierende. Ich frage mich also, was die Unterschiede zwischen ihnen sind und wann ich einen von beiden verwenden sollte.
Ich versuche, die Parameter eines neuronalen Netzmodells zu aktualisieren / zu ändern und dann den Vorwärtsdurchlauf des aktualisierten neuronalen Netzes im Berechnungsdiagramm zu haben (unabhängig davon, wie viele Änderungen / Aktualisierungen wir vornehmen). Ich habe diese Idee ausprobiert, aber wann immer ich es tue, setzt pytorch meine aktualisierten Tensoren (innerhalb …
Ich versuche, das folgende CNN wie folgt zu trainieren, erhalte jedoch immer wieder den gleichen Fehler in Bezug auf .cuda () und bin mir nicht sicher, wie ich ihn beheben soll. Hier ist ein Teil meines Codes. import matplotlib.pyplot as plt import numpy as np import torch from torch import …
Ich verwende Tensorflow, schreibe jedoch eine Dokumentation für Benutzer, die in der Regel je nach Deep-Learning-Framework variiert . Wenn ich mit Datensätzen arbeite, die nicht in das lokale Dateisystem (TB +) passen, probiere ich Daten aus einem entfernten Datenspeicher und schreibe Proben lokal in ein Tensorflow-Standardformat tfrecords. Während der ersten …
Ich mache ein CNN mit Pytorch für eine Aufgabe, aber es wird nicht lernen und die Genauigkeit verbessern. Ich habe eine Version erstellt, die mit dem MNIST-Datensatz arbeitet, damit ich sie hier veröffentlichen kann. Ich suche nur nach einer Antwort, warum es nicht funktioniert. Die Architektur ist in Ordnung, ich …
Es gibt einen berühmten Trick in der U-Net-Architektur, benutzerdefinierte Gewichtskarten zu verwenden, um die Genauigkeit zu erhöhen. Wenn ich hier und an mehreren anderen Stellen frage, lerne ich zwei Ansätze kennen. Ich möchte wissen, welcher richtig ist, oder gibt es einen anderen richtigen Ansatz, der korrekter ist? 1) Zuerst ist …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.