Als «mpi» getaggte Fragen

Message Passing Interface - eine standardmäßige und hoch portable parallele Programmierschnittstelle für verteilte Speichersysteme.

20
Parallele E / A-Optionen, insbesondere paralleles HDF5

Ich habe eine Anwendung, die trivial parallelisiert werden kann, deren Leistung jedoch weitgehend E / A-gebunden ist. Die Anwendung liest ein einzelnes Eingabearray, das in einer Datei gespeichert ist, die normalerweise 2 bis 5 GB groß ist (ich erwarte jedoch, dass diese Zahl in Zukunft zunimmt)....

9
Kommunikationsaufwand beim Supercomputing

Ich suche nach glaubwürdigen Referenzen, die angeben, wie viel Ressourcen Supercomputer für die Koordination im Vergleich zur eigentlichen aufgabenbezogenen Arbeit ausgeben. Ressourcen könnten verfügbare Rechenleistung sein, aber selbst Watt scheint eine gültige Einheit zu sein. Ich glaube, einer...

8
Können MPI-Nachrichten priorisiert werden?

Soweit ich weiß, stimmt die Reihenfolge, in der nicht blockierende Punkt-zu-Punkt-MPI-Nachrichten (Isend und Irecv) empfangen werden, mit der Reihenfolge überein, in der sie gesendet werden. Gibt es Techniken, um bestimmten Nachrichten Vorrang vor anderen zu geben? Zum Beispiel haben wir einen...

8
Nicht blockierende Version von MPI_Barrier in MPI 2

Ich habe eine Reihe von MPI-Prozessen, die Anforderungsnachrichten hin und her austauschen. Prozesse wissen nicht, welche anderen Prozesse ihnen Nachrichten senden oder wie viele. In dieser Situation möchte ich auf effiziente Weise feststellen, ob alle anderen Prozesse das Senden von Nachrichten...

8
Soll ich MPI_Init Befehlszeilenargumente übergeben oder nicht?

Beim Schreiben von MPI 3.0 - Code, soll ich weitergeben argcund argvauf den MPI_InitAnruf oder nicht, und warum? EDIT: Da die Antwort von Bill Barth einige Fragen aufwirft, möchte ich einige Anmerkungen machen: Bestehen argc/ argvist seit MPI 1.1 nicht erforderlich. Die Frage ist speziell, warum...