Якщо говорити про " 99% балів у гіперкубі ", це трохи оману, оскільки гіперкуб містить нескінченно багато очок. Давайте поговоримо замість гучності.
Об'єм гіперкуба - добуток його бічних довжин. Для 50-мірної одиниці гіперкуба отримуємо Total volume=1×1×⋯×150 times=150=1.
Тепер виключимо межі гіперкуба і подивимось на " інтер'єр " (я ставлю це в лапки, оскільки математичний термін інтер'єр має зовсім інше значення). Ми зберігаємо лише точки x=(x1,x2,…,x50) які задовольняють
0.05<x1<0.95 and 0.05<x2<0.95 and … and 0.05<x50<0.95.
Який об'єм цього "інтер'єру"? Ну, "інтер'єр" - це знову гіперкуб, а довжина кожної сторони0.9 (=0.95−0.05 ... це допомагає уявити це у двох та трьох вимірах). Отже об'єм -Interior volume=0.9×0.9×⋯×0.950 times=0.950≈0.005.
Зробіть висновок, що об'єм 'межі' (визначається як одинична гіперкуба без 'інтер’єр ') дорівнює 1−0.950≈0.995.
Це показує, що 99.5% об’єму 50-мірного гіперкуба сконцентровано на його " межі ".
Наступні дії: Ігнатій поставив цікаве запитання про те, як це пов'язано з вірогідністю. Ось приклад.
Скажімо, ви придумали модель (машинного навчання), яка прогнозує ціни на житло на основі 50 вхідних параметрів. Усі 50 вхідних параметрів незалежні і рівномірно розподілені між 0 і 1 .
Скажімо, що ваша модель працює дуже добре, якщо жоден з вхідних параметрів не є крайнім: Поки кожен вхідний параметр залишається від 0,05 до 0,95 , ваша модель прогнозує ціну житла майже ідеально. Але якщо один або декілька вхідних параметрів екстремальні (менше 0,05 або більше 0,95 ), передбачення вашої моделі абсолютно жахливі.
Будь-який заданий параметр введення є екстремальним з вірогідністю лише 10 % . Так чітко це гарна модель, правда? Ні! Ймовірність того, що принаймні один із 50 параметрів є крайнім, становить 1 - 0,950≈ 0,995.
Тож у 99,5 % випадків прогноз вашої моделі жахливий.
Правило великого пальця: у великих розмірах, екстремальні спостереження - це правило, а не виняток.