Was bewirkt es, die Filtergewichte eines CNN während der Backpropagation NICHT zu ändern? Ich habe beim Training des MNIST-Datensatzes nur die vollständig verbundenen Schichtgewichte geändert und trotzdem eine Genauigkeit von fast 99 Prozent erreicht.
machine-learning
cnn
mnist
Abhisek Dash
quelle
quelle
Antworten:
Indem Sie die Gewichte der Faltungsschichten eines CNN nicht ändern, füttern Sie im Wesentlichen zufällige Merkmale Ihres Klassifikators (der vollständig verbundenen Schicht) (dh nicht die optimalen Merkmale für die jeweilige Klassifizierungsaufgabe).
MNIST ist eine so einfache Bildklassifizierungsaufgabe, dass Sie die Eingabepixel so gut wie ohne Merkmalsextraktion einem Klassifizierer zuführen können, und es wird immer noch in den hohen 90ern punkten. Außerdem helfen vielleicht die Pooling-Schichten ein bisschen ...
Versuchen Sie, einen MLP (ohne die Conv / Pool-Ebenen) auf dem Eingabebild zu trainieren, und sehen Sie, wie es rangiert. Hier ist ein Beispiel, in dem ein MLP (1 versteckte & 1 Ausgabeschicht) ohne Vorverarbeitung / Merkmalsextraktion 98 +% erreichte.
quelle