Als «neural-network» getaggte Fragen

Künstliche neuronale Netze (ANN) bestehen aus "Neuronen" - Programmierkonstrukten, die die Eigenschaften biologischer Neuronen nachahmen. Eine Reihe gewichteter Verbindungen zwischen den Neuronen ermöglicht die Verbreitung von Informationen durch das Netzwerk, um Probleme mit künstlicher Intelligenz zu lösen, ohne dass der Netzwerkdesigner ein Modell eines realen Systems hatte.

188
Was sind Entfaltungsschichten?

Ich habe kürzlich Fully Convolutional Networks for Semantic Segmentation von Jonathan Long, Evan Shelhamer und Trevor Darrell gelesen. Ich verstehe nicht, was "Dekonvolutionsschichten" tun / wie sie funktionieren. Der relevante Teil ist 3.3. Upsampling ist eine rückwärts gerichtete Faltung Eine...

95
Wann wird GRU über LSTM verwendet?

Der Hauptunterschied zwischen einer GRU und einem LSTM besteht darin, dass eine GRU zwei Gatter hat ( Reset- und Update- Gatter), während eine LSTM drei Gatter hat (nämlich Eingabe- , Ausgabe- und Vergessen- Gatter). Warum setzen wir GRU ein, wenn wir über das LSTM-Modell eine deutlich bessere...

62
Backprop durch Max-Pooling-Ebenen?

Dies ist eine kleine konzeptionelle Frage, die mich schon seit einiger Zeit beschäftigt: Wie können wir uns durch eine Max-Pooling-Schicht in einem neuronalen Netzwerk rückwärts ausbreiten? Ich bin auf Max-Pooling-Ebenen gestoßen, als ich dieses Tutorial für die nn-Bibliothek von Torch 7...

53
RNN vs CNN auf hohem Niveau

Ich habe über die Recurrent Neural Networks (RNN) und ihre Varietäten sowie Convolutional Neural Networks (CNN) und ihre Varietäten nachgedacht. Wären diese beiden Punkte fair zu sagen: Verwenden Sie CNNs, um eine Komponente (z. B. ein Bild) in Unterkomponenten (z. B. ein Objekt in einem Bild, z....

51
Wann wird die normale Initialisierung (He oder Glorot) über die gleichmäßige Initialisierung angewendet? Und welche Auswirkungen hat die Batch-Normalisierung?

Ich wusste, dass das Residual Network (ResNet) die normale Initialisierung populär machte. In ResNet wird die normale He-Initialisierung verwendet , während die erste Ebene die einheitliche He-Initialisierung verwendet. Ich habe das ResNet-Papier und das "Delving Deep into Rectifiers" -Papier...

42
Was ist der Unterschied zwischen LeakyReLU und PReLU?

f( x ) = max ( x , α x ) mit  α ∈ ( 0 , 1 )f(x)=max(x,αx) with α∈(0,1)f(x) = \max(x, \alpha x) \qquad \text{ with } \alpha \in (0, 1) Keras hat jedoch beide Funktionen in den Dokumenten . Undichte ReLU Quelle von LeakyReLU : return K.relu(inputs, alpha=self.alpha) Daher (siehe Relu-Code ) f1( x ) =...