Ich frage mich, wie man eine wiederkehrende Architektur in einem EEG-Kontext interpretiert. Insbesondere betrachte ich dies als wiederkehrendes CNN (im Gegensatz zu Architekturen wie LSTM), aber vielleicht gilt es auch für andere Arten von wiederkehrenden Netzwerken
Wenn ich über R-CNNs lese, werden sie normalerweise in Bildklassifizierungskontexten erklärt. Sie werden typischerweise als "Lernen über die Zeit" oder "einschließlich der Auswirkung von Zeit 1 auf die aktuelle Eingabe" beschrieben.
Diese Interpretation / Erklärung wird beim Arbeiten mit EEG-Daten sehr verwirrend. Ein Beispiel für die Verwendung eines R-CNN für EEG-Daten finden Sie hier
Stellen Sie sich vor, ich habe Trainingsbeispiele, die jeweils aus einem 1x512-Array bestehen. Dieses Array erfasst einen Spannungswert für 1 Elektrode zu 512 aufeinanderfolgenden Zeitpunkten. Wenn ich dies als Eingabe für ein wiederkehrendes CNN verwende (unter Verwendung von 1D-Faltungen), erfasst der wiederkehrende Teil des Modells nicht wirklich "Zeit", oder? (wie aus den zuvor diskutierten Beschreibungen / Erklärungen hervorgeht) Weil in diesem Zusammenhang die Zeit bereits von der zweiten Dimension des Arrays erfasst wird
Was erlaubt uns der wiederkehrende Teil des Netzwerks bei einem solchen Setup tatsächlich zu modellieren, was ein regulärer CNN nicht kann (wenn nicht Zeit)?
Es scheint mir, dass wiederkehrend nur bedeutet, eine Faltung durchzuführen, das Ergebnis zur ursprünglichen Eingabe hinzuzufügen und erneut zu falten. Dies wird für x wiederkehrende Schritte wiederholt. Welchen Vorteil bietet dieser Prozess tatsächlich?
Antworten:
Der wiederkehrende Teil eines Netzwerks ermöglicht es Ihnen im Allgemeinen, langfristige und kurzfristige Abhängigkeiten zu modellieren. Ihr Modell kann also einen gewissen Zustandssinn haben.
Dies ist normalerweise vorteilhaft, wenn Sie Zeitreihen verwenden. Zum Beispiel, wenn Sie Daten von einem Herzfrequenzmesser haben und gerne zwischen Ruhe, Stress und Erholung unterscheiden möchten. Wenn Ihr Datenpunkt angibt, dass Ihre Herzfrequenz bei 130 liegt, hängt dies davon ab, ob Sie sich von hohen Belastungen oder etwas anderem erholen.
Edit: Ich habe deine zweite Frage vergessen.
Ich könnte mir ein paar mögliche Antworten ausdenken. Indem Sie den wiederkehrenden Teil falten, filtern Sie ihn. So erhalten Sie ein saubereres Signal und Fehler stapeln sich nicht so stark. Vanille rnn leiden unter explodierenden verschwindenden Gefällen, daher könnte dies sein Ansatz sein, um es zu überwinden. Darüber hinaus binden Sie Ihre Funktionen in das rcnn ein, was, wie er sagte, dazu führen kann, dass mehr Pfade genutzt werden. Das macht es weniger anfällig für Überanpassung und damit verallgemeinerbarer.
quelle
quelle
Denken Sie daran, dass CNNs Feature-Detektoren sind. Die Ausgabe einer Faltungsschicht ist eine Matrix, die signalisiert, wo ein bestimmtes Merkmal erkannt wurde.
Daher sind wiederkehrende CNNs wiederkehrende neuronale Netze, die Folgen von Merkmalen lernen, wobei diese Merkmale auch während des Trainings gelernt werden.
quelle