Ми аналізуємо пропускний грам з негативною вибіркою (SGNS), методом вбудовування слів, запровадженим Міколовим та ін., І показуємо, що він неявно факторизує слово-контекстну матрицю, осередки якої є точково взаємною інформацією (PMI) відповідної інформації пари слів і контексту, зміщені глобальною константою. Ми виявляємо, що інший метод вбудовування, NCE, неявно факторизує аналогічну матрицю, де кожна комірка - це умовна ймовірність слова (зміщеного) журналу з урахуванням його контексту. Ми показуємо, що використання розрізненої зміщеної позитивної матриці слів із контекстним словом PMI для представлення слів покращує результати двох завдань схожості на слова та однієї з двох задач аналогії. Якщо переважні щільні низькомірні вектори, точна факторизація за допомогою SVD може досягти рішень, що є принаймні настільки ж хорошими, як рішення SGNS для задач схожості слів. З питань аналогії SGNS залишається кращим за SVD. Ми гадаємо, що це випливає із зваженого характеру факторизації SGNS.