Eine Einschränkung der Standardalgorithmen für neuronale Netze (wie Backprop) besteht darin, dass Sie eine Entwurfsentscheidung treffen müssen, wie viele verborgene Schichten und Neuronen pro Schicht Sie möchten. In der Regel ist die Lernrate und Verallgemeinerung sehr empfindlich auf diese Entscheidungen. Dies war der Grund, warum neuronale Netzalgorithmen wie die Kaskadenkorrelation Interesse geweckt haben. Es beginnt mit einer minimalen Topologie (nur Eingabe- und Ausgabeeinheit) und rekrutiert im Verlauf des Lernprozesses neue versteckte Einheiten.
Der CC-NN-Algorithmus wurde 1990 von Fahlman und die wiederkehrende Version 1991 eingeführt. Welche neueren (nach 1992) neuronalen Netzalgorithmen beginnen mit einer minimalen Topologie?
Verwandte Fragen
CogSci.SE: Neuronale Netze mit biologisch plausiblen Berichten über die Neurogenese
quelle
Antworten:
Die implizite Frage ist hier, wie Sie die Topologie / Struktur eines neuronalen Netzwerks oder maschinellen Lernmodells bestimmen können, damit das Modell "die richtige Größe" hat und nicht über- / unterpasst.
Seit der Kaskadenkorrelation im Jahr 1990 gab es dafür eine ganze Reihe von Methoden, von denen viele wesentlich bessere statistische oder rechnerische Eigenschaften aufwiesen:
quelle
Wie wäre es mit NeuroEvolution von Augmenting-Topologien (NEAT) http://www.cs.ucf.edu/~kstanley/neat.html
Es scheint für einfache Probleme zu funktionieren, ist aber unglaublich langsam zu konvergieren.
quelle
So wie ich es verstehe, ist die Spitze der heutigen Technik "Unüberwachtes Feature-Lernen und Deep Learning". kurz gesagt: das netzwerk wird unbeaufsichtigt geschult, jede schicht auf einmal:
quelle
NEAT (Neural Evolution with Augmenting Topologies) wurde bereits erwähnt. Diesbezüglich gibt es Fortschritte, einschließlich Speziation und HyperNEAT. HyperNEAT verwendet ein Meta-Netzwerk, um die Gewichtung eines vollständig verbundenen Phänotyps zu optimieren. Dies gibt einem Netzwerk ein räumliches Bewusstsein, das bei der Bilderkennung und bei Problemen mit Brettspielen von unschätzbarem Wert ist. Sie sind auch nicht auf 2D beschränkt. Ich verwende es in 1D für die Signalanalyse und 2D nach oben ist möglich, stellt jedoch hohe Anforderungen an die Verarbeitung. Suchen Sie nach Artikeln von Ken Stanley, und es gibt eine Gruppe auf Yahoo. Wenn Sie ein Problem haben, das mit einem Netzwerk behoben werden kann, sind möglicherweise NEAT und / oder HyperNEAT anwendbar.
quelle
Zu diesem Thema gibt es eine neuere Veröffentlichung: RP Adams, H. Wallach und Zoubin Ghahramani. Erlernen der Struktur von tief spärlichen grafischen Modellen. Dies ist etwas außerhalb der üblichen neuronalen Netzwerkgemeinschaft und eher auf der Seite des maschinellen Lernens. In diesem Artikel wird eine nicht parametrische Bayes'sche Inferenz für die Netzwerkstruktur verwendet.
quelle