Als «mpi» getaggte Fragen

Message Passing Interface - eine standardmäßige und hoch portable parallele Programmierschnittstelle für verteilte Speichersysteme.

5
Welche Funktionen benötigen Benutzer von einer MPI C ++ - Schnittstelle?
In der Version 3.0 des MPI-Standards wurde die C ++ - Schnittstelle formal gelöscht (sie war zuvor veraltet). Während Implementierungen dies möglicherweise weiterhin unterstützen, ist für die in MPI-3 neueren Funktionen keine C ++ - Schnittstelle im MPI-Standard definiert. Weitere Informationen finden Sie unter http://blogs.cisco.com/performance/the-mpi-c-bindings-what-happened-and-why/ . Die Motivation zum Entfernen …
28 c++  mpi 

3
Parallele E / A-Optionen, insbesondere paralleles HDF5
Ich habe eine Anwendung, die trivial parallelisiert werden kann, deren Leistung jedoch weitgehend E / A-gebunden ist. Die Anwendung liest ein einzelnes Eingabearray, das in einer Datei gespeichert ist, die normalerweise 2 bis 5 GB groß ist (ich erwarte jedoch, dass diese Zahl in Zukunft zunimmt). Eine typische Berechnung wendet …

2
Boost :: mpi oder C MPI für wissenschaftliche Hochleistungsanwendungen?
Was ich an MPI am wenigsten mag, ist der Umgang mit Datentypen (dh Datenmaps / Masken), weil sie nicht so gut zu objektorientiertem C ++ passen. boost::mpiunterstützt jedoch nur MPI 1.1 von ihrer Website: boost :: mpi ist eine C ++ - freundliche Schnittstelle zur Standardschnittstelle für die Nachrichtenübermittlung. Boost.MPI …
16 hpc  c++  mpi 


4
Gibt es Empfehlungen für Unit-Testing-Frameworks, die mit Code / Bibliotheken kompatibel sind, die MPI verwenden?
Normalerweise schreibe ich seriellen Code, und wenn ich das tue, schreibe ich Komponententests mit einem Testframework im xUnit-Stil (MATLAB xUnit, PyUnit / nose oder Googles C ++ - Testframework). Basierend auf einer flüchtigen Google-Suche habe ich nicht viel darüber gesehen, wie Praktiker Unit-Test-Code verwenden, der MPI verwendet. Gibt es dafür …

2
Wie vergleichen sich die Berechnungskosten einer mpi_allgather-Operation mit einer Gather / Scatter-Operation?
Ich arbeite an einem Problem, das mithilfe einer einzelnen mpi_allgather-Operation oder einer mpi_scatter- und einer mpi_gather-Operation parallelisiert werden kann. Diese Operationen werden innerhalb einer while-Schleife aufgerufen, sodass sie häufig aufgerufen werden können. In der Implementierung mit einem MPI_allgather-Schema sammle ich einen verteilten Vektor auf alle Prozesse zur Lösung doppelter Matrix. …


2
Kommunikationsaufwand beim Supercomputing
Ich suche nach glaubwürdigen Referenzen, die angeben, wie viel Ressourcen Supercomputer für die Koordination im Vergleich zur eigentlichen aufgabenbezogenen Arbeit ausgeben. Ressourcen könnten verfügbare Rechenleistung sein, aber selbst Watt scheint eine gültige Einheit zu sein. Ich glaube, einer meiner Professoren oder Lehrbücher hat einmal gesagt, dass in massiv parallelen Systemen …
9 hpc  mpi 


2
Soll ich MPI_Init Befehlszeilenargumente übergeben oder nicht?
Beim Schreiben von MPI 3.0 - Code, soll ich weitergeben argcund argvauf den MPI_InitAnruf oder nicht, und warum? EDIT: Da die Antwort von Bill Barth einige Fragen aufwirft, möchte ich einige Anmerkungen machen: Bestehen argc/ argvist seit MPI 1.1 nicht erforderlich. Die Frage ist speziell, warum sollte / sollte man …
8 c++  c  mpi 

1
MPI-Richtlinie für mehrere asynchrone Übertragungen
Was ist die Richtlinie für mehrere überlappende asynchrone Übertragungen in MPI? Ich habe ein Programm mit mehreren offenen asynchronen irecvOperationen. Ich finde, dass Übertragungen, die stattfinden könnten (der entsprechende isendwurde aufgerufen), auf andere Übertragungen warten, die noch nicht bereit sind (der entsprechende isendwurde noch nicht aufgerufen). Um klar zu sein, …


2
Nicht blockierende Version von MPI_Barrier in MPI 2
Ich habe eine Reihe von MPI-Prozessen, die Anforderungsnachrichten hin und her austauschen. Prozesse wissen nicht, welche anderen Prozesse ihnen Nachrichten senden oder wie viele. In dieser Situation möchte ich auf effiziente Weise feststellen, ob alle anderen Prozesse das Senden von Nachrichten für erledigt halten. Dies würde perfekt durch die folgende …
8 mpi 

4
Können MPI-Nachrichten priorisiert werden?
Soweit ich weiß, stimmt die Reihenfolge, in der nicht blockierende Punkt-zu-Punkt-MPI-Nachrichten (Isend und Irecv) empfangen werden, mit der Reihenfolge überein, in der sie gesendet werden. Gibt es Techniken, um bestimmten Nachrichten Vorrang vor anderen zu geben? Zum Beispiel haben wir einen mehrstufigen Algorithmus, bei dem die hochauflösenden Lösungen mit nicht …
8 mpi 
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.