Bei der Betrachtung der Neuronalen Netze mit radialer Basisfunktion ist mir aufgefallen, dass immer nur die Verwendung einer verborgenen Schicht empfohlen wird, während bei neuronalen Netzen mit mehrschichtigen Perzeptronen mehr Schichten als besser angesehen werden.
Angesichts der Tatsache, dass RBF-Netzwerke mit der Version der Rückübertragung trainiert werden können, gibt es Gründe, warum tiefere RBF-Netzwerke nicht funktionieren oder dass eine RBF-Schicht nicht als vorletzte oder erste Schicht in einem tiefen MLP-Netzwerk verwendet werden kann? (Ich dachte, die vorletzte Ebene könnte im Wesentlichen auf die von den vorherigen MLP-Ebenen erlernten Funktionen trainiert werden.)
machine-learning
neural-networks
rbf-network
user1646196
quelle
quelle
Antworten:
Das grundlegende Problem ist, dass RBFs a) zu nichtlinear sind, b) keine Dimensionsreduktion durchführen.
wegen a) RBFs wurden immer mit k-Mitteln trainiert und nicht mit Gefälle.
Ich würde behaupten, dass der Haupterfolg bei Deep NNs Convnets sind, bei denen einer der Schlüsselteile die Dimensionsreduktion ist: Obwohl jedes Neuron mit 128 x 128 x 3 = 50.000 Eingaben arbeitet, hat es ein eingeschränktes Empfangsfeld und es gibt viel weniger Neuronen in jeder Schicht In einer bestimmten Schicht in einem MLP (jedes Neuron stellt ein Merkmal / eine Dimension dar), sodass Sie die Dimensionalität ständig reduzieren (von Schicht zu Schicht).
Obwohl man die RBF-Kovarianzmatrix adaptiv gestalten und die Dimension reduzieren könnte, wird das Training dadurch noch schwieriger.
quelle