Ist es nach dem Training von Wortvektoren mit word2vec besser, sie zu normalisieren, bevor Sie sie für einige nachgelagerte Anwendungen verwenden? Dh was sind die Vor- / Nachteile einer Normalisierung?
natural-language
word2vec
word-embeddings
Franck Dernoncourt
quelle
quelle
Antworten:
Wenn sich die nachgeschalteten Anwendungen nur um die Richtung der Wortvektoren kümmern (z. B. achten sie nur auf die Kosinusähnlichkeit von zwei Wörtern), normalisieren Sie und vergessen Sie die Länge.
Wenn jedoch die nachgelagerten Anwendungen in der Lage sind (oder müssen) betrachten vernünftige Aspekte, wie Wort Bedeutung oder Konsistenz in Wortgebrauch (siehe unten), dann Normalisierung vielleicht nicht so eine gute Idee sein.
Aus Levy et al., 2015 (und tatsächlich der größte Teil der Literatur zu Worteinbettungen):
Ebenfalls von Wilson und Schakel, 2015 :
Normalisieren ist gleichbedeutend mit dem Verlust des Längenbegriffs. Das heißt, sobald Sie die Wortvektoren normalisiert haben, vergessen Sie die Länge (Norm, Modul), die sie direkt nach der Trainingsphase hatten.
Aber manchmal ist es lohnt sich, die ursprüngliche Länge der Wortvektoren zu berücksichtigen.
Schakel und Wilson, 2015, beobachteten einige interessante Fakten bezüglich der Länge von Wortvektoren:
quelle