Graphical Processing Unit - eine spezialisierte, relativ kostengünstige Hardwareeinheit, die für schnelle grafische Berechnungen und hoch datenparallele wissenschaftliche Berechnungen entwickelt wurde.
Ich habe also ein gutes Gespür dafür, mit welchen Problemen ich am besten in Serie arbeite und welche parallel verwaltet werden können. Aber im Moment habe ich keine Ahnung, was bei CPU-basierten Berechnungen am besten funktioniert und was auf eine GPU ausgelagert werden sollte. Ich weiß, dass es eine grundlegende …
Wie vergleichen sich CUDA und OpenCL aus Sicht eines Programmierers ab Ende 2013? Meine Fraktion denkt darüber nach, GPU-Computing zu nutzen. Würden wir uns erheblich einschränken, wenn wir Hardware wählen, die nur OpenCL, nicht aber CUDA unterstützt? Sind die folgenden Annahmen korrekt, um ein bisschen genauer zu sein? Alles, was …
Ich habe den Molekulardynamik (MD) Code GROMACS ausgeführt auf einem Ubuntu-Linux-Cluster ausgeführt, der aus Knoten mit 24 Intel Xeon-CPUs besteht. Mein besonderes Interesse hat sich als etwas empfindlich für die arithmetische Gleitkommapräzision erwiesen, daher musste ich GROMACS mit doppelter Genauigkeit anstatt mit einfacher Genauigkeit ausführen - trotz des höheren Rechenaufwands …
Ich habe gerade eine Nvidia GT660-Grafikkarte auf meinem Desktop installiert und kann sie nach einiger Anstrengung mit R verbinden. Ich habe mit mehreren R-Paketen gespielt, die GPUs verwenden, insbesondere Gputools, und ich habe die Zeit verglichen, die GPU und CPU für einige grundlegende Vorgänge benötigt haben: Matrizen invertieren (CPU schneller) …
Ich würde gerne wissen, ob es einen schnellen Weg gibt, den euklidischen Abstand zweier Vektoren in Oktave zu berechnen. Es scheint, dass es dafür keine spezielle Funktion gibt. Soll ich also einfach die Formel mit verwenden sqrt?
Hat hier jemand Double Precision Scientific Computing mit GPUs der neuen Generation (z. B. K20) über Python verwendet? Ich weiß, dass sich diese Technologie rasant weiterentwickelt, aber was ist derzeit der beste Weg, dies zu tun? Die GPU ist für die populärwissenschaftlichen Python-Bibliotheken numpy und scipy nicht verfügbar, und ich …
Ich möchte das Lösen von ODE-Systemen auf GPUs in einer "trivial parallelisierbaren" Umgebung durchführen. Führen Sie beispielsweise eine Sensitivitätsanalyse mit 512 verschiedenen Parametersätzen durch. Idealerweise möchte ich ODE-Lösungen mit einem intelligenten adaptiven Zeitschrittlöser wie CVODE durchführen, anstatt mit einem festen Zeitschritt wie Forward Euler, aber auf einer NVIDIA-GPU anstelle einer …
Ich habe eine Sammlung von Rechenmodellen, die als asynchrone zellulare Automaten beschrieben werden könnten. Diese Modelle ähneln dem Ising-Modell, sind jedoch etwas komplizierter. Es scheint, als würden solche Modelle davon profitieren, auf einer GPU anstatt auf einer CPU betrieben zu werden. Leider ist es nicht ganz einfach, ein solches Modell …
nVidia hat zum Beispiel CUBLAS, das eine 7-14-fache Beschleunigung verspricht. Naiv ist dies bei weitem nicht der theoretische Durchsatz einer der GPU-Karten von nVidia. Was sind die Herausforderungen bei der Beschleunigung der linearen Algebra auf GPUs, und gibt es bereits schnellere lineare Algebra-Routings?
Ich versuche den Unterschied zwischen diesen beiden Grafikkarten für das akademische Rechnen zu verstehen, speziell für die DGEMM-Komponente. Wenn wir uns die Rohstatistik ansehen, haben beide den gleichen GK110-Chip, vergleichbare Statistiken in praktisch jeder Kategorie und, glaube ich, die gleiche Kernarchitektur. Vor jeglichen Rabatten ist der K20X ungefähr viermal so …
Ich bin sehr neu in der GPGPU-Programmierung. Bitte verzeihen Sie mir, wenn die Frage nicht besonders geeignet ist. Soweit ich weiß, ist die GPU-Programmierung im Vergleich zur üblichen CPU-Programmierung eine sehr komplizierte technische Arbeit. Man muss sehr vorsichtig sein, wenn es um Divergenzprobleme, Kacheln, festgelegte Speicherzuweisung und Überlappung zwischen Kommunikation …
Wir müssen Kovarianzmatrizen mit Größen von bis 100000 × 100000 berechnen . Wir haben Zugriff auf GPUs und Cluster und fragen uns, was der beste parallele Ansatz ist, um diese Berechnungen zu beschleunigen.10000 × 1000010000×1000010000\times10000100000 × 100000100000×100000100000\times100000
Ich habe ein Problem, bei dem ich alle positiven (wie im Eigenwert positiv ist) Eigenpaare einer kleinen (normalerweise kleiner als 60x60) unsymmetrischen Matrix finden muss. Ich kann aufhören zu berechnen, wenn der Eigenwert kleiner als ein bestimmter Schwellenwert ist. Ich weiß, dass die Eigenwerte real sind. Irgendwelche Vorschläge zu Algorithmen, …
Jemand in meinem Team möchte IPOPT parallelisieren. (zumindest einige Funktionen davon). Ich konnte keine GPU-Implementierung oder ein ähnliches Paket finden. Ich habe auch nichts in ihren Dokumenten gefunden. Die Frage ist also, gibt es eine Alternative, die bereits auf der GPU implementiert ist? oder zumindest jemand, der daran arbeitet, es …
Ich suche nach GPU-Bibliotheken, um meinen Code zu beschleunigen, dessen primäre "Hochleistungs" -Regionen Singularwertzerlegung, QR-Faktorisierung und Eigenwerte, Eigenvektorberechnung aufweisen. Ich habe die Website von Nvidia nach Tools wie CuBLAS, Magma usw. durchsucht, möchte den Code jedoch nicht in Cuda schreiben. Es wäre wunderbar, wenn es da draußen Bibliotheken gäbe, die …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.