Небаесівський прогнозний висновок (крім випадку ЗЗР) - відносно недавнє поле. Під заголовком "не-байєсів" ми можемо підрозділити підходи на ті, що "класичні", частістські та ті, які базуються на "ймовірності".
Класичне передбачення частотолога
αβ
Зараз у мене, як правило, виникли проблеми з тим, як класичні ІП представлені та викладаються на більшості курсів статистики, тому що переважна тенденція тлумачити їх як байєсівські задні прогнозні інтервали, яких вони, очевидно, не відповідають. Найбільш принципово, вони говорять про різні ймовірності! Байесян не претендує на багаторазовий вибірковий аналіз їх кількості (інакше вони будуть лікарями). По-друге, байєсівський ІП насправді досягає чогось більш схожого на класичний інтервал толерантності, ніж класичний інтервал передбачення.
Для довідки: Інтервали толерантності повинні бути визначені двома ймовірностями: Довіра та покриття. Впевненість говорить про те, як часто це правильно в повторних зразках. Покриття вказує нам міру мінімальної ймовірності інтервалу при істинному розподілі (на відміну від PI, який дає очікувану міру ймовірності ... знову при повторній вибірці). Це в основному те, що намагається зробити і Байєсівський ІП, але без будь-яких претензій на повторний вибірки.
Отже, основна логіка простої лінійної регресії статистики 101 полягає в отриманні властивостей повторної вибірки ПІ під припущенням нормальності. Його частістський + гауссовий підхід, який, як правило, вважають "класичним" та викладають на уроках статистики. Це ґрунтується на простоті отриманих розрахунків (див. Вікіпедію для приємного огляду).
Негауссові розподіли ймовірностей, як правило, проблематичні, оскільки вони можуть бракувати основні величини, які можна акуратно перевернути, щоб отримати інтервал. Тому немає "точного" методу для цих розподілів, часто тому, що властивості інтервалу залежать від справжніх базових параметрів.
Визнаючи цю нездатність, з імовірнісним підходом виник (і висновок та оцінка) виник інший клас прогнозування.
Висновок, заснований на вірогідності
Підходи на основі ймовірності, як і багато сучасних статистичних концепцій, можна простежити до Рональда Фішера. Основна ідея цієї школи полягає в тому, що, за винятком особливих випадків, наші статистичні умовиводи перебувають на логічно слабшому ґрунті, ніж коли ми маємо справу з висновками з нормального розподілу (чиї оцінки параметрів є ортогональними ), де ми можемо робити точні твердження про ймовірність. Зважаючи на це, слід уникати тверджень про ймовірність, за винятком конкретного випадку, в іншому випадку слід робити твердження про ймовірність і визнати, що невідомо точної ймовірності помилки (у частістському розумінні).
Таким чином, ми можемо бачити ймовірність як схожу з байєсівською ймовірністю, але без вимог інтеграції чи можливої плутанини з частою частотою. Її інтерпретація цілком суб'єктивна ... хоча для однозначного виводу часто рекомендується коефіцієнт ймовірності 0,15.
Однак не часто можна побачити документи, які прямо дають "вірогідні інтервали". Чому? Здається, що це багато в чому питання соціології, оскільки ми всі звикли до тверджень, що ґрунтуються на вірогідності. Натомість те, що ви часто бачите, - це автор, що посилається на "приблизний" або "асимптотичний" довірчий інтервал таких і таких. Ці інтервали в значній мірі випливають із методів вірогідності, коли ми спираємось на асимптотичний розподіл коефіцієнта ймовірності Chi-квадрата приблизно так само, як ми покладаємось на асимптотичну нормальність вибірки.
За допомогою цього «виправлення» ми тепер можемо побудувати «приблизні» 95% регіонів довіри з майже такою ж логічною послідовністю, як і байєсівці.
Від CI до PI в рамках вірогідності
Успіх і простота вищевказаного підходу щодо імовірності призвели до уявлень про те, як поширити його на передбачення. Дуже приємна стаття з цього приводу наведена тут (я не відтворюю її відмінне висвітлення). Це можна віднести до Девіда Хінклі наприкінці 1970-х (див. JSTOR ), який придумав цей термін. Він застосував це до багаторічної " Пірсонової проблеми біноміального прогнозування ". Я підсуму основну логіку.
ууу
Основні правила позбавлення від "неприємних" параметрів для отримання прогнозної ймовірності такі:
- μ , σ
- Якщо параметр є випадковим (наприклад, інші незабезпечені дані або "випадкові ефекти"), то ви їх інтегруєте (як і в баєсівському підході).
Відмінність між фіксованим і випадковим параметром є унікальним для імовірнісного висновку, але має зв'язки з моделями змішаних ефектів, де, здається, байєсівські, частотистські та ймовірнісні рамки стикаються.
Сподіваємось, це відповіло на ваше запитання щодо широкої області "не-баєсівського" прогнозування (і висновку з цього приводу). Оскільки гіперпосилання можуть змінитися, я також зроблю плагін до книги "По всій ймовірності: статистичне моделювання та умовивід з використанням ймовірності", в якій глибоко обговорюються сучасні рамки вірогідності, включаючи неабияку кількість гносеологічних питань вірогідності проти Байесія проти частотистів умовивід і передбачення
Список літератури
- Інтервали прогнозування: непараметричні методи . Вікіпедія. Доступно 13.09.2015.
- Бьорнстад, Ян Ф. Вірогідність прогнозування: огляд. Статист. Наук. 5 (1990), вип. 2, 242--254. doi: 10.1214 / ss / 1177012175.
http://projecteuclid.org/euclid.ss/1177012175 .
- Девід Хінклі. Передбачувальна ймовірність . Аннали статистики Вип. 7, № 4 (липень, 1979), стор. 718-728 Опублікував: Інститут математичної статистики Стабільна URL-адреса: http://www.jstor.org/stable/2958920
- Юді Павітан. По всій вірогідності: статистичне моделювання та умовивід з використанням ймовірності. Oxford University Press; 1 видання (30 серпня 2001 р.). ISBN-10: 0198507658, ISBN-13: 978-0198507659. Особливо глави 5.5-5.9, 10 та 16.