Es gibt einen iter
Parameter in der gensim
Word2Vec-Implementierung
Klasse gensim.models.word2vec.Word2Vec (Sätze = Keine, Größe = 100, Alpha = 0,025, Fenster = 5, min_count = 5, max_vocab_size = Keine, Stichprobe = 0, Startwert = 1, Arbeiter = 1, min_alpha = 0,0001, sg = 1, hs = 1, negativ = 0, cbow_mean = 0, hashfxn =, iter = 1 , null_word = 0, trim_rule = Keine, sortiert_vocab = 1)
das gibt die Anzahl der Epochen an, dh:
iter = Anzahl der Iterationen (Epochen) über dem Korpus.
Weiß jemand, ob dies bei der Verbesserung des Modells gegenüber dem Korpus hilft?
Gibt es einen Grund, warum das iter
standardmäßig auf 1 gesetzt ist? Gibt es nicht viel Wirkung bei der Erhöhung der Nr. von Epochen?
Gibt es eine wissenschaftliche / empirische Bewertung der Einstellung der Nr. von Epochen?
Im Gegensatz zur Klassifizierungs- / Regressionsaufgabe würde die Rastersuchmethode nicht wirklich funktionieren, da die Vektoren unbeaufsichtigt erzeugt werden und die Zielfunktion einfach entweder durch hierarchisches Softmax oder durch negative Abtastung erfolgt.
Gibt es einen Frühstoppmechanismus, um die Nr. von Epochen, wenn Vektoren konvergieren? Und kann das hierarchische Softmax- oder negative Stichprobenziel konvergieren?
quelle