Я не фахівець із систем рекомендування, але, наскільки я розумію, передумова цього питання неправильна.
Негативність не так важлива для спільної фільтрації.
Приз Netflix був виграний у 2009 році командою BellKor. Ось документ, що описує їх алгоритм: Рішення BellKor 2008 до премії Netflix . Як легко зрозуміти, вони використовують підхід на основі SVD:
Основи нашого прогресу протягом 2008 року викладені в документі KDD 2008 [4]. [...] У роботі [4] ми наводимо докладний опис трьох факторних моделей. Перша - це проста SVD [...] Друга модель [...] ми будемо називати цю модель як "Асиметрична-SVD". Нарешті, більш точна факторна модель, яка отримала назву "SVD ++" [...]
Дивіться також цю більш популярну підписання тієї ж команди методики факторизації матриць для систем рекомендацій . Вони багато говорять про SVD, але взагалі не згадують про NNMF.
Дивіться також цю популярну публікацію в блозі Netflix Update: Спробуйте це вдома з 2006 року, також пояснюючи ідеї SVD.
Звичайно, ви маєте рацію, і є певна робота щодо використання NNMF для спільної фільтрації. То що краще працює, SVD чи NNMF? Я поняття не маю, але ось висновок порівняльного дослідження алгоритмів спільної фільтрації з 2012 року:
Методи на основі матриці-факторизації, як правило, мають найвищу точність. Зокрема, регульовані SVD, PMF та його варіанти найкращі, ніж MAE та RMSE, за винятком дуже рідкісних ситуацій, коли NMF працює найкраще.