Anzahl der Epochen in der Implementierung von Gensim Word2Vec


14

Es gibt einen iterParameter in der gensimWord2Vec-Implementierung

Klasse gensim.models.word2vec.Word2Vec (Sätze = Keine, Größe = 100, Alpha = 0,025, Fenster = 5, min_count = 5, max_vocab_size = Keine, Stichprobe = 0, Startwert = 1, Arbeiter = 1, min_alpha = 0,0001, sg = 1, hs = 1, negativ = 0, cbow_mean = 0, hashfxn =, iter = 1 , null_word = 0, trim_rule = Keine, sortiert_vocab = 1)

das gibt die Anzahl der Epochen an, dh:

iter = Anzahl der Iterationen (Epochen) über dem Korpus.

Weiß jemand, ob dies bei der Verbesserung des Modells gegenüber dem Korpus hilft?

Gibt es einen Grund, warum das iterstandardmäßig auf 1 gesetzt ist? Gibt es nicht viel Wirkung bei der Erhöhung der Nr. von Epochen?

Gibt es eine wissenschaftliche / empirische Bewertung der Einstellung der Nr. von Epochen?

Im Gegensatz zur Klassifizierungs- / Regressionsaufgabe würde die Rastersuchmethode nicht wirklich funktionieren, da die Vektoren unbeaufsichtigt erzeugt werden und die Zielfunktion einfach entweder durch hierarchisches Softmax oder durch negative Abtastung erfolgt.

Gibt es einen Frühstoppmechanismus, um die Nr. von Epochen, wenn Vektoren konvergieren? Und kann das hierarchische Softmax- oder negative Stichprobenziel konvergieren?

Antworten:


5

Das Erhöhen der Anzahl von Epochen wirkt sich normalerweise positiv auf die Qualität der Wortdarstellungen aus. In Experimenten, die ich durchgeführt habe, bei denen das Ziel darin bestand, die Worteinbettungen als Merkmale für die Textklassifizierung zu verwenden, wobei die Epochen auf 15 statt 5 gesetzt wurden, wurde die Leistung erhöht.


2

Ich habe hier nachgesehen und festgestellt, dass sich der Standardwert von 1 auf 5 geändert hat. Anscheinend glauben die Autoren, dass mehr Epochen die Ergebnisse verbessern werden .

Ich kann es noch nicht aus Erfahrung sagen.


1

Durch Erhöhen der Iteranzahl (Anzahl der Epochen) wird die Trainingszeit drastisch verlängert. Word2Vec liefert nur dann qualitativ hochwertige Ergebnisse, wenn Sie eine große Anzahl von Dokumenten einspeisen. Daher ist es nicht sinnvoll, diese auch nur zweimal zu wiederholen, obwohl die resultierenden Worteinbettungen dadurch genauer werden.


1

Ich habe mein w2v-Modell auf Google News 300 für [2, 10, 100] Epochen trainiert und das beste war auf 10 Epochen. Nach all dem Warten war ich schockiert, dass 100 Epochen schlecht waren.

epoch   wall                    
------ ------                    
2       56 s                    
10      4m 44s (284s)           
100     47m 27s (2847 s)    
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.