Als «backpropagation» getaggte Fragen

Verwendung für Fragen zur Backpropagation, die häufig beim Training neuronaler Netze in Verbindung mit einer Optimierungsmethode wie dem Gradientenabstieg verwendet wird.

62
Backprop durch Max-Pooling-Ebenen?

Dies ist eine kleine konzeptionelle Frage, die mich schon seit einiger Zeit beschäftigt: Wie können wir uns durch eine Max-Pooling-Schicht in einem neuronalen Netzwerk rückwärts ausbreiten? Ich bin auf Max-Pooling-Ebenen gestoßen, als ich dieses Tutorial für die nn-Bibliothek von Torch 7...

14
Rückvermehrung in CNN

Ich habe folgende CNN: Ich beginne mit einem Eingabebild der Größe 5x5 Dann wende ich die Faltung mit 2x2 Kernel und stride = 1 an, wodurch eine Feature-Map der Größe 4x4 erzeugt wird. Dann wende ich 2x2 Max-Pooling mit Stride = 2 an, wodurch die Feature-Map auf 2x2 verkleinert wird. Dann wende ich...

10
Wie mache ich ein Batch-Innenprodukt in Tensorflow?

Ich habe zwei Tensoren a:[batch_size, dim] b:[batch_size, dim]. Ich möchte inneres Produkt für jedes Paar in der Charge machen c:[batch_size, 1], wo erzeugen c[i,0]=a[i,:].T*b[i,:].

8
So wenden Sie den Gradienten von Softmax in Backprop an

Ich habe kürzlich eine Hausaufgabe gemacht, bei der ich ein Modell für die 10-stellige MNIST-Klassifizierung lernen musste. Die HW hatte einen Gerüstcode und ich sollte im Kontext dieses Codes arbeiten. Meine Hausaufgaben funktionieren / bestehen Tests, aber jetzt versuche ich, alles von Grund auf...

8
Synthetische Gradienten - was ist der praktische Nutzen?

Ich kann zwei Motive sehen, um synthetische Gradienten in RNN zu verwenden: Um das Training zu beschleunigen, korrigieren Sie jede Schicht sofort mit dem vorhergesagten Gradienten Längere Sequenzen lernen können Ich sehe Probleme mit beiden. Bitte beachten Sie, dass ich synthetische Farbverläufe...