Різниця між наївним Байєсом та багаточленним наївним Байєсом


29

Я раніше мав справу з класифікатором Naive Bayes . Я читав про багаточленних наївних байесах останнім часом.

Також задня ймовірність = (попередня * ймовірність) / (докази) .

Єдина головна різниця (програмуючи ці класифікатори), яку я виявив між Naive Bayes та Multinomial Naive Bayes, полягає в тому, що

Мультиноміальний Naive Bayes обчислює ймовірність підрахунку слова / лексеми (випадкова величина), а Naive Bayes обчислює ймовірність наступного:

введіть тут опис зображення

Виправте мене, якщо я помиляюся!


1
Ви знайдете багато інформації у наступному pdf: cs229.stanford.edu/notes/cs229-notes2.pdf
B_Miner

Крістофер Д. Меннінг, Прабхакар Рагаван і Генріх Шютце. " Вступ до пошуку інформації ". 2009, розділ 13, "Класифікація тексту та Naive Bayes" також хороший.
Франк Дернонкурт

Відповіді:


43

f1fn

p(f1,...,fn|c)=i=1np(fi|c)

Це означає, що коли я хочу використовувати модель Naive Bayes для класифікації нового прикладу, задня ймовірність працювати набагато простіше:

p(c|f1,...,fn)p(c)p(f1|c)...p(fn|c)

Звичайно, ці припущення про незалежність є рідкісними, що може пояснити, чому деякі з них називають модель "Ідіот Баєса", але на практиці моделі "Наївні Бейса" спрацювали напрочуд добре, навіть у складних завданнях, коли зрозуміло, що сильний Припущення незалежності помилкові.

p(fi|c)p(fi|c)

Розподіл, який ви використовували за допомогою свого класифікатора Naive Bayes, - це гуаський pdf, тому, мабуть, ви могли б назвати його класифікатором Guassian Naive Bayes.

Підсумовуючи, класифікатор Naive Bayes - це загальний термін, який позначає умовну незалежність кожної з особливостей моделі, тоді як Multinomial Naive Bayes класифікатор - це специфічний екземпляр класифікатора Naive Bayes, який використовує мультиноміальне розподіл для кожної з ознак.

Список літератури:

Стюарт Дж. Рассел та Пітер Норвіг. 2003. Штучний інтелект: сучасний підхід (2 видання). Пірсон освіта. Див. С. 499 для посилання на "ідіот Байєса", а також загальне визначення моделі "Наївний Бейс" та припущення про її незалежність


Посилання розірвані
ssoler

@ jlund3, Дякую за приємне пояснення. Як ми включаємо інформацію про розподіл у свій класифікатор? Я маю на увазі, як змінюється fomula p (c | f1, ..., fn) ∝p (c) p (f1 | c) ... p (fn | c), виходячи з того, чи це розподіл Гуасса проти мультимодального
Девід

Дякую за коротке пояснення, але я рекомендую книгу (Стюарт Дж. Рассел та Пітер Норвіг. 2003. Штучний інтелект: сучасний підхід (2 видання)), про яку йдеться вище, для отримання додаткових знань про НБ та методи штучного інтелекту.
Мірані

підрахунки багаточленного розподілу не є незалежними. дивіться моє запитання тут: datascience.stackexchange.com/questions/32016/…
Hanan Shteingart

10

P(xi|cj)1in1jk(i,j)P(xi|cj1)P(xi|cj2)

Мультиноміальний Naive Bayes просто передбачає розподіл багаточленів для всіх пар, що в деяких випадках є розумним припущенням, тобто для підрахунку слів у документах.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.