Ich habe die Erklärung der Faltung gelesen und verstehe sie bis zu einem gewissen Grad. Kann mir jemand helfen zu verstehen, wie diese Operation mit der Faltung in Faltungs-Neuronalen Netzen zusammenhängt? Ist eine filterähnliche Funktion, g
die Gewicht anwendet?
machine-learning
neural-network
deep-learning
cnn
convolution
machine-learning
ensemble-modeling
machine-learning
classification
data-mining
clustering
machine-learning
feature-selection
convnet
pandas
graphs
ipython
machine-learning
apache-spark
multiclass-classification
naive-bayes-classifier
multilabel-classification
machine-learning
data-mining
dataset
data-cleaning
data
machine-learning
data-mining
statistics
correlation
machine-learning
data-mining
dataset
data-cleaning
data
beginner
career
python
r
visualization
machine-learning
data-mining
nlp
stanford-nlp
dataset
linear-regression
time-series
correlation
anomaly-detection
ensemble-modeling
data-mining
machine-learning
python
data-mining
recommender-system
machine-learning
cross-validation
model-selection
scoring
prediction
sequential-pattern-mining
categorical-data
python
tensorflow
image-recognition
statistics
machine-learning
data-mining
predictive-modeling
data-cleaning
preprocessing
classification
deep-learning
tensorflow
machine-learning
algorithms
data
keras
categorical-data
reference-request
loss-function
classification
logistic-regression
apache-spark
prediction
naive-bayes-classifier
beginner
nlp
word2vec
vector-space-models
scikit-learn
decision-trees
data
programming
Vladimir Lenin
quelle
quelle
Antworten:
Unter Verwendung der Notation aus der Wikipedia - Seite, die Faltung in einem CNN wird der Kern sein , von denen wir einige Gewichte lernen , um die Daten , die wir brauchen , und dann vielleicht anwenden eine Aktivierungsfunktion zu extrahieren.G
Diskrete Windungen
Auf der Wikipedia-Seite wird die Faltung als beschrieben
Angenommen, ist die Funktion f und b ist die Faltungsfunktion g ,ein f b G
Um dies zu lösen, können wir zuerst die Gleichung verwenden , indem wir die Funktion aufgrund des in der Gleichung erscheinenden - m vertikal umdrehen . Dann berechnen wir die Summe für jeden Wert von n . Während der Änderung von n bewegt sich die ursprüngliche Funktion nicht, jedoch wird die Faltungsfunktion entsprechend verschoben. Ab n = 0 ,b - m n n n = 0
As you can see that is exactly what we get on the plotc[n] . So we shifted around the function b[n] over the function a[n] .
2D Discrete Convolution
For example, if we have the matrix in green
with the convolution filter
Then the resulting operation is a element-wise multiplication and addition of the terms as shown below. Very much like the wikipedia page shows, this kernel (orange matrix)g is shifted across the entire function (green matrix) f .
taken from the link that @Hobbes reference. You will notice that there is no flip of the kernelg like we did for the explicit computation of the convolution above. This is a matter of notation as @Media points out. This should be called cross-correlation. However, computationally this difference does not affect the performance of the algorithm because the kernel is being trained such that its weights are best suited for the operation, thus adding the flip operation would simply make the algorithm learn the weights in different cells of the kernel to accommodate the flip. So we can omit the flip.
quelle
Yes they are related. As an example, consider Gaussian smoothing (en.wikipedia.org/wiki/Gaussian_blur) which is a convolution with a kernel of Gaussian values. A CNN learns the weights of filters (i.e. kernels), and thus can learn to perform smoothing if needed.
quelle
Although
CNN
stands for convolutional neural networks, what they do is named cross-correlation in mathematics and not convolution. Take a look at here.quelle