Ich verstehe, wie artificial neural network (ANN)
man mit Backpropogation überwacht trainieren kann, um die Anpassung zu verbessern, indem man den Fehler in den Vorhersagen verringert. Ich habe gehört, dass ein ANN für unbeaufsichtigtes Lernen verwendet werden kann, aber wie kann dies ohne irgendeine Kostenfunktion durchgeführt werden, um die Optimierungsstufen zu steuern? Mit k-means oder dem EM-Algorithmus gibt es eine Funktion, nach der jede Iteration sucht, um zuzunehmen.
- Wie können wir mit einem ANN Clustering durchführen und welchen Mechanismus verwendet er, um Datenpunkte an derselben Stelle zu gruppieren?
(Und welche zusätzlichen Funktionen bringt das Hinzufügen weiterer Ebenen mit sich?)
Antworten:
Neuronale Netze werden häufig beim unbeaufsichtigten Lernen verwendet, um eine bessere Darstellung der Eingabedaten zu erlernen. Beispielsweise kann NN bei einem Satz von Textdokumenten eine Zuordnung von einem Dokument zu einem reellen Vektor so lernen, dass die resultierenden Vektoren für Dokumente mit ähnlichem Inhalt ähnlich sind, dh Abstand beibehalten. Dies kann beispielsweise mit Auto-Encodern erreicht werden - einem Modell, das darauf trainiert ist, den ursprünglichen Vektor aus einer kleineren Darstellung (Aktivierungen versteckter Ebenen) mit einem Rekonstruktionsfehler (Abstand von der ID-Funktion) als Kostenfunktion zu rekonstruieren. Durch diesen Vorgang erhalten Sie keine Cluster, es werden jedoch aussagekräftige Darstellungen erstellt, die für das Clustering verwendet werden können. Sie können beispielsweise einen Clustering-Algorithmus für die Aktivierungen der verborgenen Ebene ausführen.
Clustering: Es gibt eine Reihe verschiedener NN-Architekturen, die speziell für das Clustering entwickelt wurden. Am bekanntesten sind wahrscheinlich selbstorganisierende Karten. Ein SOM ist ein NN, bei dem eine Reihe von Neuronen zu einem topologischen Gitter verbunden sind (normalerweise rechteckig). Wenn einem SOM ein Muster präsentiert wird, wird das Neuron mit dem nächstgelegenen Gewichtsvektor als Gewinner betrachtet und seine Gewichte werden an das Muster sowie an die Gewichte seiner Nachbarschaft angepasst. Auf diese Weise findet ein SOM natürlich Datencluster. Ein etwas verwandter Algorithmus ist das Züchten von neuronalem Gas (es ist nicht auf eine vordefinierte Anzahl von Neuronen beschränkt).
Ein anderer Ansatz ist die Adaptive Resonanz Theorie, bei der wir zwei Schichten haben: "Vergleichsfeld" und "Erkennungsfeld". Das Erkennungsfeld bestimmt auch die beste Übereinstimmung (Neuron) mit dem vom Vergleichsfeld übertragenen Vektor und weist auch laterale inhibitorische Verbindungen auf. Implementierungsdetails und exakte Gleichungen können leicht gefunden werden, indem die Namen dieser Modelle gegoogelt werden. Deshalb werde ich sie hier nicht einfügen.
quelle
Sie möchten sich selbstorganisierende Karten ansehen . Kohonen (der sie erfunden hat) hat ein Buch über sie geschrieben. Es gibt Pakete dafür in R ( som , kohonen ) und Implementierungen in anderen Sprachen wie MATLAB .
quelle