Запитання з тегом «naive-bayes»

Наївний класифікатор Байєса - це простий імовірнісний класифікатор, заснований на застосуванні теореми Байєса з сильними припущеннями незалежності. Більш описовим терміном для основної моделі ймовірності буде "незалежна модель функції".

3
Приклад: регресія LASSO з використанням glmnet для двійкового результату
Я починаю балуватися з використанням glmnetз LASSO регресією , де мій результат становить інтерес дихотомический. Я створив невеликий макетний кадр даних нижче: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 

3
Розуміння наївного Байєса
( Statisoft, Inc.) (2013), Підручник з електронної статистики , "Класифікатор Naive Bayes" : Щоб продемонструвати концепцію класифікації наївних баїв, розглянемо приклад, показаний на ілюстрації вище. Як зазначено, об'єкти можна класифікувати як ЗЕЛЕНІ або ЧЕРВЕНІ. Моє завдання - класифікувати нові випадки по мірі їх надходження, тобто вирішувати, до якої мітки класу …

3
Чому наївні байєсівські класифікатори так добре працюють?
Класифікатори Naive Bayes - популярний вибір для класифікаційних проблем. Є багато причин для цього, зокрема: "Zeitgeist" - широке усвідомлення після успіху спам-фільтрів близько десяти років тому Легко писати Модель класифікатора швидко будується Модель можна модифікувати новими навчальними даними без необхідності її перебудови Однак вони "наївні" - тобто вони вважають, що …

3
Як Naive Bayes є лінійним класифікатором?
Я бачив інший потік тут , але я не думаю , що відповідь задовольнила актуальне питання. Що я постійно читав, це те, що Naive Bayes є лінійним класифікатором (наприклад, тут ) (таким, що він малює лінійну межу рішення), використовуючи демонстрацію шансів журналу. Однак я імітував дві хмари Гаусса і встановив …

2
Різниця між наївним Байєсом та багаточленним наївним Байєсом
Я раніше мав справу з класифікатором Naive Bayes . Я читав про багаточленних наївних байесах останнім часом. Також задня ймовірність = (попередня * ймовірність) / (докази) . Єдина головна різниця (програмуючи ці класифікатори), яку я виявив між Naive Bayes та Multinomial Naive Bayes, полягає в тому, що Мультиноміальний Naive Bayes …

7
У Наївних Бейсах, чому турбуватися згладжуванням Лапласа, коли в тестовому наборі є невідомі слова?
Я читав сьогодні класифікацію Naive Bayes. Я читав під заголовком Оцінка параметрів з додаванням 1 згладжування : Нехай посилається на клас (наприклад, позитивний чи негативний), а позначає маркер або слово.cccwww Максимальний показник ймовірності для -P(w|c)P(w|c)P(w|c)count(w,c)count(c)=counts w in class ccounts of words in class c.count(w,c)count(c)=counts w in class ccounts of words …

3
Машинне навчання для прогнозування ймовірностей класу
Я шукаю класифікаторів, які виводять ймовірності того, що приклади належать до одного з двох класів. Я знаю логістичну регресію та наївний Байєс, але чи можете ви сказати мені про інших, які працюють аналогічно? Тобто класифікатори, які передбачають не класи, до яких належать приклади, а ймовірність того, що приклади підходять до …

1
Коли Naive Bayes працює краще, ніж SVM?
У невеликій проблемі класифікації тексту, яку я розглядав, Naive Bayes демонстрував виставу, схожу на SVM або більше, і я дуже розгубився. Мені було цікаво, які фактори визначають тріумф одного алгоритму над іншим. Чи бувають ситуації, коли немає сенсу використовувати Naive Bayes над SVM? Чи може хтось пролити на це світло?

3
Які алгоритми потребують масштабування функцій, крім SVM?
Я працюю з багатьма алгоритмами: RandomForest, DecisionTrees, NaiveBayes, SVM (ядро = лінійне та rbf), KNN, LDA та XGBoost. Усі вони були досить швидкими, за винятком SVM. Саме тоді я дізнався, що для швидшого роботи потрібне масштабування функцій. Тоді я задумався, чи варто робити те ж саме для інших алгоритмів.

3
Як згладжується Кнайсер-Ней, як обробляються невидимі слова?
З того, що я бачив, формула згладжування (другого порядку) Кнайзера-Нея так чи інакше подається як P2KN(wn|wn−1)=max{C(wn−1,wn)−D,0}∑w′C(wn−1,w′)+λ(wn−1)×Pcont(wn)PKN2(wn|wn−1)=max{C(wn−1,wn)−D,0}∑w′C(wn−1,w′)+λ(wn−1)×Pcont(wn) \begin{align} P^2_{KN}(w_n|w_{n-1}) &= \frac{\max \left\{ C\left(w_{n-1}, w_n\right) - D, 0\right\}}{\sum_{w'} C\left(w_{n-1}, w'\right)} + \lambda(w_{n-1}) \times P_{cont}(w_n) \end{align} з нормуючим коефіцієнтом λ(wn−1)λ(wn−1)\lambda(w_{n-1}) заданим як λ(wn−1)=D∑w′C(wn−1,w′)×N1+(wn−1∙)λ(wn−1)=D∑w′C(wn−1,w′)×N1+(wn−1∙) \begin{align} \lambda(w_{n-1}) &= \frac{D}{\sum_{w'} C\left(w_{n-1}, w'\right)} \times N_{1+}\left(w_{n-1}\bullet\right) \end{align} і …

3
Чому ніхто не використовує байєсовський багаточленний класичний наївний Байєс?
Так, у (непідконтрольному) текстовому моделюванні, латентне розподілення Діріхле (LDA) є баєсовою версією ймовірнісного латентного семантичного аналізу (PLSA). По суті, LDA = PLSA + Діріхле перед своїми параметрами. Я розумію, що LDA тепер є контрольним алгоритмом і реалізується в різних пакетах, тоді як PLSA більше не слід використовувати. Але в (під …

2
Збільшення кількості функцій призводить до падіння точності, але збільшення попереднього / відкликання
Я новачок у машинному навчанні. На даний момент я використовую класифікатор Naive Bayes (NB), щоб класифікувати невеликі тексти у 3-х класах як позитивні, негативні чи нейтральні, використовуючи NLTK та python. Провівши деякі тести, з набором даних, що складається з 300 000 екземплярів (16 924 позитивні, 7 477 негативів і 275 …

5
Як здійснити однокласну класифікацію тексту?
Я маю справу з проблемою класифікації тексту. Веб-сканер сканує веб-сторінки певного домену, і для кожної веб-сторінки я хочу з’ясувати, належить вона лише одному певному класу чи ні. Тобто, якщо я називаю цей клас Позитивним , кожна сканована веб-сторінка належить або до класу Позитивний, або до класу Непозитивний . У мене …

2
Як Naive Bayes працює з безперервними змінними?
На моє (дуже базове) розуміння, Naive Bayes оцінює ймовірності на основі частоти класів кожної функції у навчальних даних. Але як він обчислює частоту безперервних змінних? І коли робите прогнозування, як воно класифікує нове спостереження, яке може не мати однакових значень у будь-якого спостереження у навчальному наборі? Він використовує якусь міру …

3
Приклад того, як працює трюк log-sum-exp у Naive Bayes
Я читав про трюк log-sum-exp у багатьох місцях (наприклад, тут і тут ), але ніколи не бачив прикладу того, як він застосовується спеціально до класифікатора Naive Bayes (наприклад, з дискретними особливостями та двома класами) Як саме можна уникнути проблеми числового підтоку, використовуючи цей трюк?

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.