Ich habe die Architektur des siamesischen neuronalen Netzwerks untersucht, die Yann LeCun und seine Kollegen 1994 zur Erkennung von Signaturen eingeführt haben ( „Signaturüberprüfung mit einem siamesischen neuronalen Netzwerk mit Zeitverzögerung“ .pdf , NIPS 1994).
Ich habe die allgemeine Idee dieser Architektur verstanden, aber ich kann wirklich nicht verstehen, wie die Backpropagation in diesem Fall funktioniert. Ich kann nicht verstehen, was die Zielwerte des neuronalen Netzwerks sind, die es der Rückausbreitung ermöglichen, die Gewichte jedes Neurons richtig einzustellen.
In dieser Architektur berechnet der Algorithmus die Kosinusähnlichkeit zwischen den endgültigen Darstellungen der beiden neuronalen Netze. In der Arbeit heißt es: "Die gewünschte Ausgabe ist für einen kleinen Winkel zwischen den Ausgaben der beiden Teilnetze (f1 und f2), wenn echte Signaturen präsentiert werden und ein großer Winkel, wenn eine der Signaturen eine Fälschung ist ".
Ich kann nicht wirklich verstehen, wie sie eine Binärfunktion (Kosinusähnlichkeit zwischen zwei Vektoren) als Ziel verwenden könnten, um die Backpropagation auszuführen.
Wie wird die Backpropagation in den siamesischen neuronalen Netzen berechnet?
quelle
Antworten:
Beide Netzwerke haben ähnliche Architekturen, müssen jedoch die gleichen Gewichte haben wie in der Veröffentlichung in Abschnitt 4 [1] beschrieben.
Ihr Ziel ist es, Merkmale zu lernen, die die Kosinusähnlichkeit zwischen ihren Ausgangsvektoren minimieren, wenn Signaturen echt sind, und sie zu maximieren, wenn sie gefälscht sind (dies ist auch das Backprop-Ziel, aber die tatsächliche Verlustfunktion wird nicht dargestellt).
Um die Netzwerkgewichte identisch zu halten, gibt es verschiedene Möglichkeiten, dies zu tun (und sie werden auch in wiederkehrenden neuronalen Netzen verwendet). Ein üblicher Ansatz besteht darin, die Gradienten der beiden Netzwerke zu mitteln, bevor der Aktualisierungsschritt für den Gradientenabstieg ausgeführt wird.
[1] http://papers.nips.cc/paper/769-signature-verification-using-a-siamese-time-delay-neural-network.pdf
quelle