Розуміння використання логарифмів у логарифмі TF-IDF


10

Я читав:

https://en.wikipedia.org/wiki/Tf%E2%80%93idf#Definition

Але я не можу точно зрозуміти, чому формула була побудована такою, якою вона є.

Що я розумію:

iDF повинен на якомусь рівні вимірювати, як часто термін S з'являється в кожному з документів, зменшуючи значення, оскільки термін з'являється частіше.

З цієї точки зору

iDF(S)=# of Documents# of Documents containing S

Крім того, термін частота може бути правильно описаний як

tf(S,D)=# of Occurrences of S in document D# maximum number of occurrences for any string Q in document D

Тож тоді міра

iDF(S)×tf(S,D)

є певним чином пропорційним тому, як часто цей термін з’являється в даному документі, і наскільки унікальним є цей термін для набору документів.

Що я не розумію

Але наведена формула описує це як

(log(iDF(S)))(12+log(12tf(S,D)))

Я хочу зрозуміти необхідність логарифмів, описаних у визначенні. Мовляв, навіщо вони там? На який аспект вони наголошують?

Відповіді:


9

Підкреслений аспект полягає в тому, що актуальність терміна або документа не збільшується пропорційно частоті (або документу). Використання підлінійної функції, таким чином, допомагає скинути цей ефект. Для цього також амортизується вплив дуже великих або дуже малих значень (наприклад, дуже рідкісних слів). Нарешті, оскільки більшість людей інтуїтивно сприймає функції скорингу як дещо аддитивну, використовуючи логарифми, зроблять ймовірність різних незалежних термінів від більше схожих на .log ( P ( A , B ) ) = log ( P ( A ) ) + log ( P ( B ) )P(A,B)=P(A)P(B)log(P(A,B))=log(P(A))+log(P(B))

Як зазначає стаття у Вікіпедії, на яку ви посилаєтесь, обгрунтування TF-IDF досі недостатньо встановлено; це / є евристика, що ми хочемо зробити сувору, а не сувору концепцію, яку ми хочемо перенести в реальний світ. Як згадував @ Аноні-Мусс, як дуже добре читати це питання, це розуміння Робертсона зворотної частоти документів: про теоретичні аргументи для IDF . Це дає широкий огляд усієї основи та намагається обґрунтувати методологію TF-IDF на важливості зважування пошукових термінів.


4
Деякі обґрунтування TF-IDF можна знайти у "Формальному дослідженні евристики пошуку інформації". 2004 р. Fang, Hui та ін ( pdf ).
Олексій Григорьов

3
Я думаю, що це краща посилання на виправдання TF-IDF: Robertson, S. (2004). "Розуміння зворотної частоти документів: Теоретичні аргументи для IDF". Журнал документації 60 (5): 503–520.
Є QUIT - Anonymous-Mousse

Дякую за коментарі, панове (і особлива подяка Олексію за виправлення \log, я постійно їх забуваю); +1 обом. Я бачив папір Робертсона і замислювався над його доданням; це справді добре прочитане, я додам його в основну частину.
usεr11852

@ Anonymous-Mousse (pdf)
Морж Кіт

Хочу знати, чому "максимальна кількість зустрічей для будь-якого рядка Q в документі D" використовується замість number of occurrences for all strings in document D. Чому ми хочемо підрахунок найпоширенішого слова замість кількості всіх слів?
Ксеонкросс
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.