Запитання з тегом «word2vec»

word2vec - це двошарова нейронна мережа для обробки тексту. Він приймає слова як вхідні дані і відповідно виводить вектор. У ньому використовується комбінація безперервного пакета Word та реалізації моделі скіпграм.

4
Як я можу отримати міру смислової подібності слів?
Який найкращий спосіб з’ясувати смислову схожість слів? Word2Vec добре, але не ідеально: # Using the 840B word Common Crawl GloVe vectors with gensim: # 'hot' is closer to 'cold' than 'warm' In [7]: model.similarity('hot', 'cold') Out[7]: 0.59720456121072973 In [8]: model.similarity('hot', 'warm') Out[8]: 0.56784095376659627 # Cold is much closer to 'hot' …

5
Кращий практичний алгоритм подібності речень
У мене є два речення, S1 і S2, обидва з яких мають кількість слів (як правило) нижче 15. Назвіть найбільш практично корисні та успішні алгоритми (машинне навчання), які, можливо, легко здійснити (нейронна мережа справна, якщо архітектура не така складна, як Google Inception тощо). Я шукаю алгоритм, який буде добре працювати, …

2
Doc2Vec - Як позначити абзаци (gensim)
Мені цікаво, як позначити (тег) речення / абзаци / документи з doc2vec в gensim - з практичної точки зору. Чи потрібно мати кожне речення / абзац / документ із власною унікальною міткою (наприклад, "Sent_123")? Це здається корисним, якщо ви хочете сказати, "які слова чи речення найбільш схожі на одне конкретне …

5
збільшують теплову карту для новонароджених
Я створюю corr()df з оригінального df. corr()ДФ вийшов 70 X 70 і неможливо уявити собі Heatmap ... sns.heatmap(df). Якщо я спробую відобразити corr = df.corr()таблицю, таблиця не відповідає екрану, і я бачу всі кореляції. Це спосіб або надрукувати весь, dfнезалежно від його розміру, або контролювати розмір теплової карти?
17 visualization  pandas  plotting  machine-learning  neural-network  svm  decision-trees  svm  efficiency  python  linear-regression  machine-learning  nlp  topic-model  lda  named-entity-recognition  naive-bayes-classifier  association-rules  fuzzy-logic  kaggle  deep-learning  tensorflow  inception  classification  feature-selection  feature-engineering  machine-learning  scikit-learn  tensorflow  keras  encoding  nlp  text-mining  nlp  rnn  python  neural-network  feature-extraction  machine-learning  predictive-modeling  python  r  linear-regression  clustering  r  ggplot2  neural-network  neural-network  training  python  neural-network  deep-learning  rnn  predictive-modeling  databases  sql  programming  distribution  dataset  cross-validation  neural-network  deep-learning  rnn  machine-learning  machine-learning  python  deep-learning  data-mining  tensorflow  visualization  tools  sql  embeddings  orange  feature-extraction  unsupervised-learning  gan  machine-learning  python  data-mining  pandas  machine-learning  data-mining  bigdata  apache-spark  apache-hadoop  deep-learning  python  convnet  keras  aggregation  clustering  k-means  r  random-forest  decision-trees  reference-request  visualization  data  pandas  plotting  neural-network  keras  rnn  theano  deep-learning  tensorflow  inception  predictive-modeling  deep-learning  regression  sentiment-analysis  nlp  encoding  deep-learning  python  scikit-learn  lda  convnet  keras  predictive-modeling  regression  overfitting  regression  svm  prediction  machine-learning  similarity  word2vec  information-retrieval  word-embeddings  neural-network  deep-learning  rnn 

4
Як ініціалізувати нову модель word2vec з попередньо підготовленими вагами моделі?
Я використовую бібліотеку Gensim у python для використання та навчання моделі word2vector. Нещодавно я розглядав ініціалізацію ваги моєї моделі з якоюсь попередньо навченою моделлю word2vec, такою як (попередньо вивчена модель GoogleNewDataset). Я боровся з цим пару тижнів. Тепер я просто дізнався, що в gesim є функція, яка може допомогти мені …

4
Кількість епох у впровадженні Gensim Word2Vec
У реалізації Word2Vec є iterпараметрgensim клас gensim.models.word2vec.Word2Vec (речення = Немає, розмір = 100, альфа = 0,025, вікно = 5, min_count = 5, max_vocab_size = Немає, зразок = 0, насіння = 1, робітники = 1, min_alpha = 0,0001, sg = 1, hs = 1, мінус = 0, cbow_mean = 0, hashfxn …

4
Чи можемо ми скористатися використанням трансферного навчання під час навчання моделей word2vec?
Я шукаю заздалегідь підготовлену вагу вже навчених моделей, таких як дані Google News тощо. Мені було важко навчити нову модель з достатньою кількістю даних (10 Гб тощо) для себе. Отже, я хочу скористатись трансферним навчанням, в якому я міг би отримати попередньо підготовлену вагу шару та перевчити ці ваги на …

2
Класифікація документів за допомогою згорткової нейронної мережі
Я намагаюся використовувати CNN (звивисту нейронну мережу) для класифікації документів. CNN для короткого тексту / речень вивчався у багатьох працях. Однак, схоже, жоден папір не використовував CNN для довгого тексту чи документа. Моя проблема полягає в тому, що в документі занадто багато функцій. У моєму наборі даних кожен документ містить …

3
Чи Word2Vec і Doc2Vec є представленнями розподілу або розподіленим представленням?
Я читав, що розподільне представлення базується на розподільній гіпотезі, що слова, що виникають у подібному контексті, мають схоже значення. Word2Vec і Doc2Vec моделюються відповідно до цієї гіпотези. Але в оригінальному документі навіть вони названі як Distributed representation of words and phrasesі Distributed representation of sentences and documents. Отже, чи базуються …

2
Яка матриця функцій у word2vec?
Я початківець у нейромережах, і зараз вивчаю модель word2vec. Однак у мене важкий час, щоб зрозуміти, що саме являє собою матриця функцій. Я можу зрозуміти, що перша матриця - це гарячий вектор кодування для даного слова, але що означає друга матриця? Більш конкретно, що означає кожне з цих значень (тобто …

2
Особливості слово векторів у word2vec
Я намагаюся зробити аналіз настроїв. Для перетворення слів у слова вектори я використовую модель word2vec. Припустимо, у мене є всі речення у списку з назвою "речення", і я передаю ці речення word2vec наступним чином: model = word2vec.Word2Vec(sentences, workers=4 , min_count=40, size=300, window=5, sample=1e-3) Оскільки я є нобієм слова векторів, у …
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.