In der Arbeit über ein vollständig faltungsorientiertes neuronales Netzwerk erwähnen die Autoren sowohl das Patch-weise Training als auch das vollständig faltungsorientierte Training.
Mein Verständnis für den Aufbau des Trainingssets ist wie folgt:
M*M
Extrahieren Sie bei einem gegebenen Bild Unterbilder mit N*N
, wobei ( N<M
). Die ausgewählten Teilbilder überlappen sich untereinander. Für jeden Stapel im Trainingsprozess können alle Teilbilder für ein bestimmtes Bild oder mehrere Bilder enthalten sein.
Ist mein Verständnis richtig? Was ist dann der Unterschied zwischen Patch-Training und vollständig Faltungs-Training? Ich füge den entsprechenden Abschnitt als Referenz hinzu.
Antworten:
Grundsätzlich nimmt ein vollständig faltungsorientiertes Training das gesamte MxM-Bild auf und erzeugt Ausgaben für alle Teilbilder in einem einzigen ConvNet-Vorwärtsdurchlauf . Das Patchwise-Training schneidet die Teilbilder explizit aus und erzeugt Ausgaben für jedes Teilbild in unabhängigen Vorwärtsdurchläufen . Daher ist ein vollständig gefaltetes Training normalerweise wesentlich schneller als ein Patch-Training.
Für ein vollständig konvolutionäres Training nehmen Sie also folgende Aktualisierungen vor:
Dies ist zwar recht schnell, schränkt jedoch Ihren Trainings-Sampling-Prozess im Vergleich zum Patchwise-Training ein: Sie müssen viele Aktualisierungen am selben Image vornehmen(eigentlich alle möglichen Aktualisierungen für alle Teilbilder) während eines Schrittes Ihres Trainings. Aus diesem Grund schreiben sie, dass ein vollständig faltungsbezogenes Training nur dann mit einem Patchwise-Training identisch ist, wenn jedes Empfangsfeld (auch als Teilbild bezeichnet) eines Bildes in einem Trainingstapel des Patchwise-Trainingsverfahrens enthalten ist (für das Patchwise-Training könnten auch zwei von zehn möglich sein Teilbilder aus Bild A, drei von acht möglichen Teilbildern aus Bild B usw. in einem Stapel). Dann argumentieren sie, dass Sie, wenn Sie nicht alle Ausgaben während des vollständig gefalteten Trainings verwenden, dem Patchwise-Training wieder näher kommen (da Sie nicht alle möglichen Aktualisierungen für alle Teilbilder eines Bildes in einem einzigen Trainingsschritt vornehmen). Sie verschwenden jedoch einen Teil der Berechnung. Auch in Abschnitt 4.4 / Abbildung 5,
quelle