Meine Frage betrifft die Beziehung zwischen der Hypothese der effizienten Codierung, die auf der Wikipedia-Seite über effiziente Codierung und Lernalgorithmen für neuronale Netze beschrieben wird.
Welche Beziehung besteht zwischen der Hypothese der effizienten Codierung und neuronalen Netzen?
Gibt es neuronale Netzwerkmodelle, die explizit von der Hypothese der effizienten Codierung inspiriert sind?
Oder wäre es fairer zu sagen, dass alle Lernalgorithmen für neuronale Netze zumindest implizit auf einer effizienten Codierung basieren?
neural-networks
information-theory
Mike NZ
quelle
quelle
Antworten:
Ich glaube, man kann argumentieren, dass eine Verbindung hergestellt wurde. Ich entschuldige mich dafür, dass ich meine Quelle nicht veröffentlicht habe, da ich sie nicht finden konnte, aber dies kam von einer alten Folie, die Hinton präsentiert hat. Darin behauptete er, dass eine der grundlegenden Denkweisen für diejenigen, die maschinelles Lernen betreiben (da die Präsentation vor der allgemeinen Verwendung des Wortes Deep Learning stattfand), darin bestehe, dass es eine optimale Transformation der Daten gibt, so dass die Daten leicht sein können gelernt. Ich glaube, dass für neuronale Netze die "optimale Transformation" der Daten durch Back-Prop die effiziente Codierungshypothese in Aktion ist. Auf die gleiche Weise, wie bei einem richtigen Kernel, können viele Räume leicht mit linearen Modellen klassifiziert werden, wobei gelernt wird, wie die Daten richtig transformiert und gespeichert werden, analog zu denen und wie die Neuronen angeordnet werden sollten, um die Daten darzustellen.
quelle