Als «softmax» getaggte Fragen

Normalisierung der Exponentialfunktion, die einen numerischen Vektor so transformiert, dass alle seine Einträge zwischen 0 und 1 liegen und zusammen 1 ergeben. Sie wird häufig als letzte Schicht eines neuronalen Netzwerks verwendet, das eine Klassifizierungsaufgabe ausführt.

14
Caret glmnet vs cv.glmnet

Es scheint eine Menge Verwirrung im Vergleich zwischen der Verwendung von glmnetinside caretzur Suche nach einem optimalen Lambda und der Verwendung cv.glmnetderselben Aufgabe zu geben. Viele Fragen wurden gestellt, zB: Klassifizierungsmodell train.glmnet vs. cv.glmnet? Was ist der richtige Weg,...

10
Softmax-Überlauf [geschlossen]

Geschlossen. Diese Frage ist nicht zum Thema . Derzeit werden keine Antworten akzeptiert. Möchten Sie diese Frage verbessern? Aktualisieren Sie die Frage so dass es beim Thema für Kreuz Validated. Geschlossen vor 2 Jahren . Während ich auf den...

9
Was ist der Gradienten-Log-Normalisierer?

Im Wiki wird die Softmax-Funktion als Gradient-Log-Normalisierer der kategorialen Wahrscheinlichkeitsverteilung definiert . Eine teilweise Erklärung zum Log-Normalizer finden Sie hier , aber wofür steht der Gradient-Log-Normalizer