Запитання з тегом «regression»

Методи аналізу взаємозв'язку між однією (або більше) змінними "залежними" та "незалежними" змінними.

9
Чому можна отримати значну F статистику (p <.001), але несуттєві регресорні t-тести?
Чому в декількох лінійних регресіях, чому можна мати дуже значну статистику F (p &lt;.001), але мати дуже високі значення p у всіх тестах регресора? У моїй моделі є 10 регресорів. Один має р-значення 0,1, а решта вище 0,9 Для вирішення цієї проблеми див. Подальше запитання .


2
Форма довірчого інтервалу для прогнозованих значень при лінійній регресії
Я помітив, що довірчий інтервал для прогнозованих значень в лінійній регресії має тенденцію бути вузьким навколо середнього значення прогноктора і жиру навколо мінімальних і максимальних значень прогноктора. Це можна побачити на графіках цих 4 лінійних регресій: Я спочатку думав, що це тому, що більшість значень предикторів були сконцентровані навколо середнього …

7
Чи потрібні всі терміни взаємодії в індивідуальній регресійній моделі?
Я фактично переглядаю рукопис, де автори порівнюють 5-6 моделей регресії логіту з AIC. Однак деякі моделі мають умови взаємодії, не включаючи окремі коваріатні терміни. Чи має сенс це робити? Наприклад (не характерно для моделей logit): M1: Y = X1 + X2 + X1*X2 M2: Y = X1 + X2 M3: …

10
Що не так з екстраполяцією?
Я пам’ятаю, як сидіти на курсах статистики як недооцінене слухання того, чому екстраполяція була поганою ідеєю. Крім того, в Інтернеті є безліч джерел, які коментують це. Там також згадка про нього тут . Хтось може допомогти мені зрозуміти, чому екстраполяція - це погана ідея? Якщо це так, то як це, …

1
Яке співвідношення робить матрицю сингулярною та які наслідки сингулярності чи близької сингулярності?
Я роблю кілька обчислень на різних матрицях (головним чином у логістичній регресії), і я часто отримую помилку "Матриця є сингулярною", де мені потрібно повернутися назад і видалити корельовані змінні. Моє запитання тут - що б ви вважали "сильно" корельованою матрицею? Чи є порогове значення кореляції для відображення цього слова? Як …

5
Єдиний погляд на усадку: яке співвідношення (якщо воно є) між парадоксом Штейна, регресією хребта та випадковими ефектами у змішаних моделях?
Розглянемо наступні три явища. Парадокс Штейна: з огляду на деякі дані багатовимірного нормального розподілу в , середнє значення вибірки не є дуже хорошим оцінником справжнього середнього. Оцінку можна отримати з нижньою середньою помилкою у квадраті, якщо зменшити всі координати середнього зразка у напрямку до нуля [або до їх середнього значення, …

4
Як додавання ІІ IV може зробити ІV важливим?
У мене є те, що, ймовірно, просте питання, але це мене зараз бентежить, тому я сподіваюся, що ви можете мені допомогти. У мене є модель регресії найменших квадратів, з однією незалежною змінною та однією залежною змінною. Відносини не суттєві. Тепер я додаю другу незалежну змінну. Тепер зв’язок між першою незалежною …


7
Регресія з декількома залежними змінними?
Чи можливо мати (множинне) рівняння регресії з двома або більше залежними змінними? Звичайно, ви можете запустити два окремі рівняння регресії, по одному для кожного DV, але це не здається, що воно би захопило будь-які відносини між двома DV?
61 regression 

15
Чому параметрична статистика коли-небудь віддаватиме перевагу непараметричній?
Чи може хтось мені пояснити, чому хтось обрав би параметричний над непараметричним статистичним методом для тестування гіпотез чи регресійного аналізу? На мій погляд, це як поїхати на рафтинг і вибрати не водостійкий годинник, тому що ви не зможете його намочити. Чому б не використати інструмент, який працює у кожному випадку?

9
Які недоліки використання ласо для змінного вибору для регресії?
З того, що мені відомо, використання ласо для змінного вибору вирішує проблему корельованих входів. Крім того, оскільки він еквівалентний регресії з найменшим кутом, він обчислюється не повільно. Однак багато людей (наприклад, люди, яких я знаю, що займаються біостатистикою) все ще, здається, віддають перевагу поетапному або поетапному змінному вибору. Чи є …

3
Чому оцінка гребня стає кращою за OLS, додаючи константу до діагоналі?
Я розумію, що оцінка регресії хребта - це яка мінімізує залишкову суму квадрата та штраф у розміріββ\betaββ\beta βridge=(λID+X′X)−1X′y=argmin[RSS+λ∥β∥22]βridge=(λID+X′X)−1X′y=argmin⁡[RSS+λ‖β‖22]\beta_\mathrm{ridge} = (\lambda I_D + X'X)^{-1}X'y = \operatorname{argmin}\big[ \text{RSS} + \lambda \|\beta\|^2_2\big] Однак я не повністю розумію значення того факту, що βridgeβridge\beta_\text{ridge} відрізняється від βOLSβOLS\beta_\text{OLS} лише додаванням невеликої константи до діагоналі X′XX′XX'X . …

6
Принциповий спосіб згортання категоріальних змінних з багатьма рівнями?
Які методи доступні для згортання (чи об'єднання) багатьох категорій до кількох, з метою використання їх як вхідних даних (прогнозів) у статистичній моделі? Розглянемо таку змінну, як студент коледжу (дисципліна, яку обирає студент). Це не упорядковане і категоричне, але потенційно воно може мати десятки різних рівнів. Скажімо, я хочу використовувати мажор …


Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.