Wiederkehrendes (CNN) Modell für EEG-Daten

10

Ich frage mich, wie man eine wiederkehrende Architektur in einem EEG-Kontext interpretiert. Insbesondere betrachte ich dies als wiederkehrendes CNN (im Gegensatz zu Architekturen wie LSTM), aber vielleicht gilt es auch für andere Arten von wiederkehrenden Netzwerken

Wenn ich über R-CNNs lese, werden sie normalerweise in Bildklassifizierungskontexten erklärt. Sie werden typischerweise als "Lernen über die Zeit" oder "einschließlich der Auswirkung von Zeit 1 auf die aktuelle Eingabe" beschrieben.

Diese Interpretation / Erklärung wird beim Arbeiten mit EEG-Daten sehr verwirrend. Ein Beispiel für die Verwendung eines R-CNN für EEG-Daten finden Sie hier

Stellen Sie sich vor, ich habe Trainingsbeispiele, die jeweils aus einem 1x512-Array bestehen. Dieses Array erfasst einen Spannungswert für 1 Elektrode zu 512 aufeinanderfolgenden Zeitpunkten. Wenn ich dies als Eingabe für ein wiederkehrendes CNN verwende (unter Verwendung von 1D-Faltungen), erfasst der wiederkehrende Teil des Modells nicht wirklich "Zeit", oder? (wie aus den zuvor diskutierten Beschreibungen / Erklärungen hervorgeht) Weil in diesem Zusammenhang die Zeit bereits von der zweiten Dimension des Arrays erfasst wird

Was erlaubt uns der wiederkehrende Teil des Netzwerks bei einem solchen Setup tatsächlich zu modellieren, was ein regulärer CNN nicht kann (wenn nicht Zeit)?

Es scheint mir, dass wiederkehrend nur bedeutet, eine Faltung durchzuführen, das Ergebnis zur ursprünglichen Eingabe hinzuzufügen und erneut zu falten. Dies wird für x wiederkehrende Schritte wiederholt. Welchen Vorteil bietet dieser Prozess tatsächlich?

Simon
quelle
Ich denke, dass es nützlich ist, die ursprüngliche Eingabe bei jedem Schritt beizubehalten, da das Erlernen der Identität schwierig sein kann. Deshalb kann es nützlich sein, das verbleibende Netzwerk oder nur die Eingabe zu kopieren, um die meisten verborgenen Ebenen zu umgehen. Für den auf eeg angewendeten Sonderfall von RCNN können Sie sich vorstellen, dass die Faltungszeit t = 50 ms markiert, da zu diesem Zeitpunkt eine Funktion angezeigt wird. Dann kann Ihr Netzwerk die ursprüngliche Eingabe zu diesem bestimmten Zeitpunkt zur weiteren Analyse anzeigen.
AgemO

Antworten:

1

Der wiederkehrende Teil eines Netzwerks ermöglicht es Ihnen im Allgemeinen, langfristige und kurzfristige Abhängigkeiten zu modellieren. Ihr Modell kann also einen gewissen Zustandssinn haben.

Dies ist normalerweise vorteilhaft, wenn Sie Zeitreihen verwenden. Zum Beispiel, wenn Sie Daten von einem Herzfrequenzmesser haben und gerne zwischen Ruhe, Stress und Erholung unterscheiden möchten. Wenn Ihr Datenpunkt angibt, dass Ihre Herzfrequenz bei 130 liegt, hängt dies davon ab, ob Sie sich von hohen Belastungen oder etwas anderem erholen.

Edit: Ich habe deine zweite Frage vergessen.

Es scheint mir, dass wiederkehrend nur bedeutet, eine Faltung durchzuführen, das Ergebnis zur ursprünglichen Eingabe hinzuzufügen und erneut zu falten. Dies wird für x wiederkehrende Schritte wiederholt. Welchen Vorteil bietet dieser Prozess tatsächlich?

Ich könnte mir ein paar mögliche Antworten ausdenken. Indem Sie den wiederkehrenden Teil falten, filtern Sie ihn. So erhalten Sie ein saubereres Signal und Fehler stapeln sich nicht so stark. Vanille rnn leiden unter explodierenden verschwindenden Gefällen, daher könnte dies sein Ansatz sein, um es zu überwinden. Darüber hinaus binden Sie Ihre Funktionen in das rcnn ein, was, wie er sagte, dazu führen kann, dass mehr Pfade genutzt werden. Das macht es weniger anfällig für Überanpassung und damit verallgemeinerbarer.

RyanMcFlames
quelle
0
  • 1x512-Eingangsarray bedeutet: Das wiederkehrende Netzwerk verarbeitet die Elektrodenspannung 512-mal, dh Sie müssen nur eine Funktion verarbeiten.
  • CNN mit einer Funktion ist nutzlos.
Denize
quelle
-1

Denken Sie daran, dass CNNs Feature-Detektoren sind. Die Ausgabe einer Faltungsschicht ist eine Matrix, die signalisiert, wo ein bestimmtes Merkmal erkannt wurde.

Daher sind wiederkehrende CNNs wiederkehrende neuronale Netze, die Folgen von Merkmalen lernen, wobei diese Merkmale auch während des Trainings gelernt werden.

ncasas
quelle
2
Dies ist eine irreführende Antwort. CNNs sind keine Merkmaldetektoren, sondern eine Transformation eines Merkmalsraums und dann ein Funktionsschätzer, der die transformierten Merkmale einer Ausgabe zuordnet. Auch überhaupt nicht das, was das OP verlangte. Bitte verwenden Sie stattdessen die Kommentare für Kommentare. Dies lässt die Frage beantwortet aussehen und hält andere vom Klicken ab.
JahKnows
@JahKnows Es kommt auf die Interpretation an, sie sind beide, nicht wahr? Schauen Sie sich (yosinski.com/deepvis) an. Es kann Ihnen helfen.
Medien
@ncasas würden Sie bitte einen Link für Ihren Absatz bereitstellen?
Medien