У реалізації Word2Vec є iter
параметрgensim
клас gensim.models.word2vec.Word2Vec (речення = Немає, розмір = 100, альфа = 0,025, вікно = 5, min_count = 5, max_vocab_size = Немає, зразок = 0, насіння = 1, робітники = 1, min_alpha = 0,0001, sg = 1, hs = 1, мінус = 0, cbow_mean = 0, hashfxn =, iter = 1 , null_word = 0, trim_rule = Немає, sorted_vocab = 1)
що вказує кількість епох, тобто:
iter = кількість ітерацій (епох) над корпусом.
Хтось знає, чи це допомагає вдосконалити модель над корпусом?
Чи є якась причина, чому iter
за замовчуванням встановлено значення 1? Немає великого ефекту в збільшенні немає. епох?
Чи є якась наукова / емпірична оцінка того, як встановити "ні". епох?
На відміну від завдання класифікації / регресії, метод пошуку в сітці насправді не працює, оскільки вектори генеруються без нагляду, а цільова функція - це просто ієрархічна софтмакс, або негативна вибірка.
Чи є механізм ранньої зупинки, щоб скоротити ні. епох, коли сходяться вектори? І чи може сходитися ієрархічна софтмакс чи негативна вибіркова мета?