Gilt der universelle Approximationssatz für neuronale Netze für eine Aktivierungsfunktion (Sigmoid, ReLU, Softmax usw.) oder ist er auf Sigmoidfunktionen beschränkt?
Update: Wie Shimao in den Kommentaren hervorhebt, gilt es für absolut keine Funktion. Für welche Klasse von Aktivierungsfunktionen gilt dies?
neural-networks
approximation
Skander H.
quelle
quelle
Antworten:
Der Wikipedia-Artikel enthält eine formelle Erklärung.
quelle
Multilayer-Feedforward-Netzwerke sind eine veröffentlichte Referenz, die sich mit dem Problem befasst. Polynomaktivierungsfunktionen haben nicht die universelle Approximationseigenschaft.
Der Preprint NN mit unbegrenzten Aktivierungsfunktionen deckt viele Aktivierungsfunktionen ab. Es wird nur eine einzelne verborgene Schicht NN betrachtet. Es ist schwer auf Fourier-Analyse.
Ich betone, dass die zweite Referenz ein Vordruck ist, da ich nicht für ihre Richtigkeit bürgen kann. Leshno et al. 1993 ist eine rezensierte Publikation.
quelle
quelle