Кореляція відстані проти взаємної інформації


15

Я працював із взаємною інформацією деякий час. Але я знайшов зовсім недавній захід у «світі кореляції», який також можна використовувати для вимірювання незалежності розподілу, так звану «кореляцію відстані» (також названу броунівською кореляцією): http://en.wikipedia.org/wiki/Brownian_covariance . Я перевірив папери, де вводиться цей захід, але не знайшовши ніякої алюзії на взаємну інформацію.

Отже, мої запитання:

  • Вони вирішують точно таку ж проблему? Якщо ні, то чим відрізняються проблеми?
  • І якщо на попереднє питання можна відповісти позитивно, то які переваги використання того чи іншого?

Спробуйте записати чітко "кореляцію відстані" та "взаємну інформацію" для простого прикладу. У другому випадку ви отримаєте логарифми, тоді як у першому - ні.
Пьотр Мігдал

@PiotrMigdal Так, я знаю про цю різницю. Чи можете ви поясніть, чому це важливо? Будь ласка, врахуйте, що я не статистик ...
dsign

Для ma стандартним інструментом вимірювання взаємної залежності розподілів ймовірностей є взаємна інформація. Він має масу приємних властивостей, і його інтерпретація відверта. Однак можуть виникати конкретні проблеми, коли корелюється віддалене співвідношення (але я його ніколи в житті не використовував). То яка проблема, яку ви намагаєтеся вирішити?
Пьотр Мігдал

2
Цей коментар запізнюється на кілька років, але кафедра статистики університету Колумбії зробила навчальний рік 2013-2014 роком зосередженим на заходах залежності. У квітні-травні 2014 року було проведено семінар, який зібрав провідних науковців, які працюють у цій галузі, включаючи братів Решефів (MIC), Габора Шекелі (кореляції відстаней), Subhadeep Mukhopadhay. Ось посилання на програму, яка включає багато файлів pdfs з презентацій. залежність2013.wikischolars.columbia.edu/…
Майк Хантер

Відповіді:


9

Інформація / взаємна інформація не залежить від можливих значень, вона залежить лише від ймовірностей, тому вона менш чутлива. Кореляція відстані є більш потужною та простою для обчислення. Для порівняння див

http://www-stat.stanford.edu/~tibs/reshef/comment.pdf


2
Привіт, дякую за вашу відповідь! Документ, про який ви посилаєтесь, стосується MIC, тобто я вважаю, що це трохи більше, ніж MI. Я реалізував міру кореляції відстані, і не думаю, що це буде простішим, ніж MI для елементарного випадку дискретних категоричних змінних. Потім ще одне, що я дізнався, це те, що DCM добре визначений і добре поводиться для постійних змінних, але з ІМ вам потрібно робити бінінг або фантазійні речі ala MIC.
dsign

3
Однак, здається, DCM потребує квадратних матриць, сторона яких - кількість зразків. Іншими словами, складність простору масштабується квадратично. Або, принаймні, таке моє враження, я хотів би помилитися. MIC краще, тому що ви можете налаштувати його на якийсь компроміс між точністю та продуктивністю.
dsign
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.