MPI-Queue: Unterschied zwischen den Versionen

Aus Physik
Zur Navigation springen Zur Suche springen
(+Quellen)
 
(3 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt)
Zeile 9: Zeile 9:
 
Jeder dieser Tasks besitzt einen für ihn spezifischen Datensatz, aus denen ein bestimmtes Ergebnis berechnet werden soll. Die Verteilung der Aufgaben auf die verschiedenen Prozesse übernimmt ein spezieller Prozess, der sogenannte ''Master''-Prozess. Dieser empfängt außerdem die Ergebnisse, sobald diese fertig berechnet worden sind.
 
Jeder dieser Tasks besitzt einen für ihn spezifischen Datensatz, aus denen ein bestimmtes Ergebnis berechnet werden soll. Die Verteilung der Aufgaben auf die verschiedenen Prozesse übernimmt ein spezieller Prozess, der sogenannte ''Master''-Prozess. Dieser empfängt außerdem die Ergebnisse, sobald diese fertig berechnet worden sind.
   
Die restlichen Prozesse (''Slaves'') warten auf einen Task, berechnen das Ergebnis und senden dieses an den Master zurück. Dies wird so lange wiederholt, bis vom Master ein Beendigungs-Signal empfangen wird.
+
Die restlichen Prozesse warten auf einen Task, berechnen das Ergebnis und senden dieses an den Master zurück. Dies wird so lange wiederholt, bis vom Master ein Beendigungs-Signal empfangen wird.
   
 
== Download ==
 
== Download ==
   
[[Image:Mpi-queue.tar.gz|Sourcecode]]
+
* [[Media:Mpi-queue.pdf|Dokumentation zur Verwendung des Codes]]
  +
* [[Media:Mpi-queue.tar.gz|Sourcecode]]
  +
  +
== Quellen, Literatur ==
  +
  +
* [http://de.wikipedia.org/wiki/Message_Passing_Interface Wikipedia über MPI]
  +
* [http://www.open-mpi.org/doc/v1.2/ Doku des openMPI Projekts]
  +
* [https://computing.llnl.gov/tutorials/mpi/ MPI-Tutorial des Lawrence Livermore National Laboratory]
  +
* [http://www.mcs.anl.gov/research/projects/mpi/mpi-standard/mpi-report-1.1/mpi-report.htm Spezifikation des MPI-1.1 Standards - Argonne National Laboratory]

Aktuelle Version vom 28. Jänner 2011, 09:24 Uhr

Einleitung

MPI-Queue ist ein Grundgerüst und Programmbibliothek für eine möglichst einfache und sorgenfreie Implementation eines einfachen parallelen Warteschlangen-Algorithmus mit Hilfe von MPI in modernem Fortran.

Funktionsweise

Das Programm basiert auf der Grundidee einer Warteschlange: Es gibt also eine Reihe von Aufgaben - Tasks, die unabhängig voneinander abgearbeitet werden können.

Jeder dieser Tasks besitzt einen für ihn spezifischen Datensatz, aus denen ein bestimmtes Ergebnis berechnet werden soll. Die Verteilung der Aufgaben auf die verschiedenen Prozesse übernimmt ein spezieller Prozess, der sogenannte Master-Prozess. Dieser empfängt außerdem die Ergebnisse, sobald diese fertig berechnet worden sind.

Die restlichen Prozesse warten auf einen Task, berechnen das Ergebnis und senden dieses an den Master zurück. Dies wird so lange wiederholt, bis vom Master ein Beendigungs-Signal empfangen wird.

Download

Quellen, Literatur