Існує багато способів оцінити, наскільки схожі два розподіли ймовірності. Серед популярних (у різних колах) методів є:
відстань Колмогорова: відстань відстані між функціями розподілу;
відстань Кантаровича-Рубінштейна: максимальна різниця очікувань двох розподілів функцій з постійною Ліпшица , яка також виявляється відстань між розподільними функціями;
обмежена відстань Ліпшиця: як і відстань KR, але функції також повинні мати абсолютне значення не більше .
Вони мають різні переваги та недоліки. Тільки конвергенція у значенні 3. насправді точно відповідає конвергенції в розподілі; конвергенція в значенні 1. або 2. трохи сильніше загалом. (Зокрема, якщо з ймовірністю , то до в розподілі, але не на відстані Колмогорова. Однак, якщо граничний розподіл є безперервним, ця патологія не виникає. )
З точки зору елементарної теорії ймовірностей або мір 1., це дуже природно, оскільки порівнює ймовірність перебування в деякій множині. З іншого боку, більш досконала імовірнісна перспектива має більше уваги, ніж очікування, ніж ймовірності. Також, з точки зору функціонального аналізу, відстані на зразок 2 або 3, засновані на подвійності з деяким функціональним простором, дуже привабливі, оскільки існує великий набір математичних інструментів для роботи з такими речами.
Однак моє враження (виправте мене, якщо я помиляюся!) Полягає в тому, що в статистиці відстань Колмогорова - це зазвичай бажаний спосіб вимірювання подібності розподілів. Я можу здогадатися про одну причину: якщо один з розподілів дискретний з кінцевою підтримкою - зокрема, якщо це розподіл якихось реальних даних - то відстань Колмогорова до модельного розподілу легко обчислити. (Відстань KR було б трохи важче обчислити, а відстань BL, ймовірно, неможливо на практиці.)
Отже, моє запитання (нарешті) полягає в тому, чи існують інші причини, чи то практичні, чи теоретичні, щоб надавати перевагу відстані Колмогорова (чи якусь іншу відстань) для статистичних цілей?