Unterschied zwischen globalen und Gerätefunktionen

108

Kann jemand die Unterschiede zwischen __global__und beschreiben __device__?

Wann soll ich verwenden __device__und wann __global__?

Mehdi Saman Booy
quelle

Antworten:

136

Globale Funktionen werden auch als "Kernel" bezeichnet. Dies sind die Funktionen, die Sie von der Hostseite aus mithilfe der CUDA-Kernelaufrufsemantik ( <<<...>>>) aufrufen können .

Gerätefunktionen können nur von anderen Geräte- oder globalen Funktionen aufgerufen werden. __device__Funktionen können nicht über den Hostcode aufgerufen werden.

Eugene
quelle
14
Ebenso wie ein Nachtrag können __global__Funktionen auch mithilfe der CUDA-Kernelsemantik (<<< ... >>>) vom Gerät aus aufgerufen werden, wenn Sie dynamische Parallelität verwenden - dies erfordert CUDA 5.0 und Rechenfähigkeit 3.5 oder höher.
Tom
39

Unterschiede zwischen __device__und __global__Funktionen sind:

__device__ Funktionen können nur vom Gerät aus aufgerufen werden und werden nur im Gerät ausgeführt.

__global__ Funktionen können vom Host aus aufgerufen werden und werden im Gerät ausgeführt.

Daher rufen Sie __device__Funktionen von Kernelfunktionen auf und müssen die Kerneleinstellungen nicht festlegen. Sie können eine Funktion auch "überladen", z. B.: Sie können deklarieren void foo(void)und __device__ foo (void)dann wird eine auf dem Host ausgeführt und kann nur von einer Host-Funktion aufgerufen werden. Der andere wird auf dem Gerät ausgeführt und kann nur von einem Gerät oder einer Kernelfunktion aufgerufen werden.

Sie können auch den folgenden Link besuchen: http://code.google.com/p/stanford-cs193g-sp2010/wiki/TutorialDeviceFunctions , es war nützlich für mich.

FacundoGFlores
quelle
31
  1. __global__- Läuft auf der GPU, die von der CPU oder der GPU * aufgerufen wird. Mit <<<dim3>>>Argumenten ausgeführt.
  2. __device__- Läuft auf der GPU, die von der GPU aufgerufen wird. Kann auch mit Variablen verwendet werden.
  3. __host__ - Läuft auf der CPU, die von der CPU aufgerufen wird.

*) __global__Funktionen können von anderen __global__Funktionen aus aufgerufen werden, die die
Rechenfähigkeit 3.5 starten .

Greşanu Emanuel - Vasile
quelle
5
Diese Antwort ist etwas zu spät - sie war zum Zeitpunkt der Fragestellung richtig, aber seit der Erfindung der dynamischen Parallelität nicht mehr richtig .
Tera
16

Ich werde es mit einem Beispiel erklären:

main()
{
    // Your main function. Executed by CPU
}

__global__ void calledFromCpuForGPU(...)
{
  //This function is called by CPU and suppose to be executed on GPU
}

__device__ void calledFromGPUforGPU(...)
{
  // This function is called by GPU and suppose to be executed on GPU
}

Wenn also eine Hostfunktion (CPU) eine Gerätefunktion (GPU) aufrufen soll, wird ' global ' verwendet. Lesen Sie dies: " https://code.google.com/p/stanford-cs193g-sp2010/wiki/TutorialGlobalFunctions "

Und wenn eine Gerätefunktion (GPU) (eher ein Kernel) eine andere Kernelfunktion aufrufen soll, verwenden wir ' Gerät '. Lesen Sie diese " https://code.google.com/p/stanford-cs193g-sp2010/wiki/TutorialDeviceFunctions "

Dies sollte ausreichen, um den Unterschied zu verstehen.

sandeep.ganage
quelle
13

__global__ist für Cuda-Kernel Funktionen, die direkt vom Host aufgerufen werden können. __device__Funktionen können von __global__und __device__Funktionen aufgerufen werden, jedoch nicht vom Host.

perreal
quelle
7

Ich nehme hier vorerst einige unbegründete Spekulationen auf (ich werde diese später begründen, wenn ich auf eine maßgebliche Quelle stoße) ...

  1. __device__Funktionen können einen anderen Rückgabetyp als void haben, aber __global__Funktionen müssen immer void zurückgeben.

  2. __global__Funktionen können aus anderen Kerneln heraus aufgerufen werden, die auf der GPU ausgeführt werden, um zusätzliche GPU-Threads (als Teil des dynamischen Parallelitätsmodells von CUDA (auch bekannt als CNP)) zu starten, während __device__Funktionen auf demselben Thread wie der aufrufende Kernel ausgeführt werden.

Autodidakt
quelle
7

__global__Funktion ist die Definition des Kernels. Immer wenn es von der CPU aufgerufen wird, wird dieser Kernel auf der GPU gestartet.

Jeder Thread, der diesen Kernel ausführt, muss jedoch möglicherweise immer wieder Code ausführen, z. B. zwei Ganzzahlen austauschen. Somit können wir hier eine Hilfsfunktion schreiben, genau wie wir es in einem C-Programm tun. Und für Threads, die auf einer GPU ausgeführt werden, sollte eine Hilfsfunktion als deklariert werden __device__.

Daher wird eine Gerätefunktion von Threads eines Kernels aufgerufen - eine Instanz für einen Thread. Währenddessen wird eine globale Funktion vom CPU-Thread aufgerufen.

Lorin Ahmed
quelle
7

__global__ ist ein CUDA C-Schlüsselwort (Deklarationsspezifizierer), das besagt, dass die Funktion,

  1. Wird auf dem Gerät (GPU) ausgeführt.
  2. Aufrufe vom Host-Code (CPU).

globale Funktionen (Kernel), die vom Host-Code mit gestartet werden <<< no_of_blocks , no_of threads_per_block>>>. Jeder Thread führt den Kernel anhand seiner eindeutigen Thread-ID aus.

Allerdings __device__können Funktionen nicht vom Host aufgerufen werden code.if Sie tun müssen , um sie beide verwenden __host__ __device__.

Thilina Piyadasun
quelle
2

Die globale Funktion kann nur vom Host aufgerufen werden und hat keinen Rückgabetyp, während die Gerätefunktion nur von der Kernelfunktion einer anderen Gerätefunktion aufgerufen werden kann und daher keine Kerneleinstellung erforderlich ist

harishbisht29
quelle