Запитання з тегом «intuition»

Запитання, які шукають концептуальне або нематематичне розуміння статистики.

2
Який розподіл
Який розподіл коефіцієнта визначення, або R у квадраті, , в лінійній одновимірній множинній регресії за нульовою гіпотезою ?R2R2R^2H0:β=0Н0: β= 0H_0:\beta=0 Як це залежить від кількості предикторів та кількості вибірок ? Чи існує вираз закритої форми для режиму цього розподілу?kкkn>kn > kn>k Зокрема, у мене є відчуття, що для простої регресії …

2
Геометрична інтерпретація пенізованої лінійної регресії
Я знаю, що лінійну регресію можна розглядати як "лінію, вертикально найближчу до всіх точок" : Але є й інший спосіб побачити це, візуалізуючи простір стовпців, як "проекцію на простір, що охоплюється стовпцями коефіцієнта матриці" : Моє запитання: у цих двох інтерпретаціях, що відбувається, коли ми використовуємо пенізовану лінійну регресію, як …

5
Коли має сенс підхід Фішера "піти отримати більше даних"?
Цитуючи чудову відповідь Гунга Нібито дослідник одного разу звернувся до Фішера з «незначними» результатами, запитавши його, що йому робити, і Фішер сказав: «Іди, отримай більше даних». З точки зору Неймана-Пірсона, це кричуще хакерство, але чи є випадки використання, коли підхід Фішера "отримати більше даних" має сенс?ppp

4
Інтуїція за стандартним відхиленням
Я намагаюся краще зрозуміти стандартне відхилення. З того, що я розумію, він є репрезентативним для середнього значення відмінностей набору спостережень у наборі даних від середнього значення для цього набору даних. Однак він НЕ насправді дорівнює середнім різницям, оскільки надає більшої ваги спостереженням далі від середнього. Скажіть, у мене така сукупність …

7
Яка різниця між ймовірністю та пропорцією?
Скажіть, я їв гамбургери кожен вівторок роками. Можна сказати, що я їдаю гамбургери 14% часу, або що ймовірність того, що я з'їм гамбургер за даний тиждень, становить 14%. Які основні відмінності між ймовірностями та пропорціями? Чи є ймовірність очікуваною пропорцією? Чи вірогідні ймовірності та пропорції гарантовані?

5
Шукаю певного типу пояснення ARIMA
Це може бути важко знайти, але я хотів би, щоб читати добре пояснив приклад ARIMA , що використовує мінімальну математику розширює дискусію поза побудовою моделі на використання цієї моделі для прогнозування конкретних випадків використовує графіку, а також числові результати для характеристики відповідності між прогнозованими та фактичними значеннями.

2
Чи можете ви пояснити оцінку щільності вікна Парсена (ядра) з точки зору непростої людини?
Оцінка щільності вікна Парзен описується як p(x)=1n∑i=1n1h2ϕ(xi−xh)p(x)=1n∑i=1n1h2ϕ(xi−xh) p(x)=\frac{1}{n}\sum_{i=1}^{n} \frac{1}{h^2} \phi \left(\frac{x_i - x}{h} \right) де - кількість елементів у векторі, - вектор, - щільність вірогідності , - розмірність вікна Парцен, а - функція вікна.nnnxxxp(x)p(x)p(x)xxxhhhϕϕ\phi Мої запитання: Яка основна відмінність між функцією вікна Парцена та іншими функціями щільності, такими як Гауссова …

3
Статистичне тлумачення максимального ентропійного розподілу
Я використав принцип максимальної ентропії для обгрунтування використання декількох розподілів у різних налаштуваннях; однак мені ще не вдається сформулювати статистичну, на відміну від інформаційно-теоретичної інтерпретації максимальної ентропії. Іншими словами, що означає максимізація ентропії щодо статистичних властивостей розподілу? Хтось наткнувся чи, можливо, виявив собі статистичну інтерпретацію макс. ентропійні розподіли, які не …


5
Інтуїція теореми Байєса
Я намагався розвинути на основі інтуїції розуміння теореми Байєса з точки зору попередньої , задньої , вірогідності та граничної ймовірності. Для цього я використовую таке рівняння: де являє собою гіпотезу чи переконання, а являє собою дані чи докази. Я зрозумів поняття заднього - це об'єднавча сутність, яка поєднує попередню віру …


2
Яка інтуїція стоїть за визначенням повноти в статистиці як такої, що неможливо сформувати з неї об'єктивний оцінювач ?
У класичній статистиці існує визначення, що статистичний набору даних визначений як повний для параметра , неможливо сформувати з нього непідвладне оцінювач нетривіально. Тобто єдиний спосіб мати для всіх - це бути майже точно.TTTy1,…,yny1,…,yny_1, \ldots, y_nθθ\theta000Eh(T(y))=0Eh(T(y))=0E h(T (y )) = 0θθ\thetahhh000 Чи є за цим інтуїція? Це здається досить механічним способом …

1
Чи є інтуїтивне пояснення, чому логістична регресія не буде працювати для ідеального випадку розлуки? І чому додавання регуляризації виправить це?
У нас є багато хороших дискусій про ідеальне розділення в логістичній регресії. Такі як, Логістична регресія в R призвели до ідеального роз'єднання (феномен Хока-Доннера). А тепер що? і логістична регресійна модель не збігається . Я особисто все ще вважаю, що це не інтуїтивно, чому це буде проблема і чому додавання …

7
Чому настільки важливі симетричні позитивні матриці (SPD)?
Я знаю визначення матриці симетричного позитивного певного (SPD), але хочу зрозуміти більше. Чому вони такі важливі, інтуїтивно? Ось що я знаю. Що ще? Для даних даних матриця ко-дисперсії - SPD. Матриця ко-дисперсії є важливою метрикою, див. Цей чудовий пост для інтуїтивного пояснення. Квадратична форма випукла, якщо SPD. Опуклість - це …

2
Що в назві: точність (зворотна дисперсія)
Інтуїтивно зрозумілим є середнє значення лише середнього рівня спостережень. Різниця полягає в тому, наскільки ці спостереження різняться від середнього значення. Мені хотілося б знати, чому інверсія дисперсії відома як точність. Яку інтуїцію ми можемо зробити з цього? І чому матриця точності настільки ж корисна, як матриця коваріації при багатоваріантному (нормальному) …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.