Als «normalization» getaggte Fragen

51
Wann wird die normale Initialisierung (He oder Glorot) über die gleichmäßige Initialisierung angewendet? Und welche Auswirkungen hat die Batch-Normalisierung?

Ich wusste, dass das Residual Network (ResNet) die normale Initialisierung populär machte. In ResNet wird die normale He-Initialisierung verwendet , während die erste Ebene die einheitliche He-Initialisierung verwendet. Ich habe das ResNet-Papier und das "Delving Deep into Rectifiers" -Papier...

10
Wann sollte man eine lineare Regression oder eine Entscheidungsbaum- oder eine zufällige Waldregression wählen? [geschlossen]

Geschlossen . Diese Frage muss fokussierter sein . Derzeit werden keine Antworten akzeptiert. Möchten Sie diese Frage verbessern? Aktualisieren Sie die Frage so, dass sie sich nur auf ein Problem konzentriert, indem Sie diesen Beitrag bearbeiten . Geschlossen vor 4 Jahren . Ich arbeite an einem...

8
Batch-Normalisierung verstehen

In dem Artikel Batch-Normalisierung: Beschleunigen des tiefen Netzwerktrainings durch Reduzieren der internen Kovariatenverschiebung ( hier ) Bevor der Prozess der Batch-Normalisierung erläutert wird, wird versucht, die damit verbundenen Probleme zu erklären (ich verstehe nicht, was genau hier...

7
Was sind einige Situationen, in denen die Normalisierung der Eingabedaten auf Null bedeutet, dass die Einheitsvarianz nicht angemessen oder nicht vorteilhaft ist?

Ich habe beim maschinellen Lernen viele Male eine Normalisierung der Eingabedaten auf den Mittelwert Null und die Einheitsvarianz gesehen. Ist dies eine gute Praxis, die ständig durchgeführt werden muss, oder gibt es Zeiten, in denen dies nicht angemessen oder nicht vorteilhaft ist?...