Запитання з тегом «regression»

Методи аналізу взаємозв'язку між однією (або більше) змінними "залежними" та "незалежними" змінними.

2
Розрахунок довірчих інтервалів для логістичної регресії
Я використовую біноміальну логістичну регресію, щоб визначити, has_xчи has_yвпливає або впливає ймовірність того, що користувач щось натисне. Моя модель така: fit = glm(formula = has_clicked ~ has_x + has_y, data=df, family = binomial()) Це вихід з моєї моделі: Call: glm(formula = has_clicked ~ has_x + has_y, family = binomial(), data …

3
Корисність теореми Фріш-Ва
Я повинен викладати теорему Фріша Во з економетрики, яку я не вивчав. Я зрозумів математику, яка стоїть за ним, і я сподіваюся, що ідея "коефіцієнт, який ви отримуєте для конкретного коефіцієнта з декількох лінійних моделей, дорівнює коефіцієнту простої регресійної моделі, якщо ви" усунете "вплив інших регресорів". Тож теоретична ідея є …

1
Перетворення стандартизованих бета-версій до оригінальних змінних
Я розумію, що це, мабуть, дуже просте запитання, але після пошуку я не можу знайти відповідь, яку шукаю. У мене є проблема, коли мені потрібно стандартизувати виконання змінних (регресія хребта), щоб обчислити оцінки хребта бета. Потім мені потрібно перетворити їх назад у початкову шкалу змінних. Але як це зробити? Я …

2
Функції впливу та OLS
Я намагаюся зрозуміти, як працюють функції впливу. Чи може хтось пояснити в контексті простої регресії OLS yi=α+β⋅xi+εiyi=α+β⋅xi+εi\begin{equation} y_i = \alpha + \beta \cdot x_i + \varepsilon_i \end{equation} де я хочу функцію впливу для .ββ\beta

5
Як я можу обчислити, чи має моя лінійна регресія статистично значущу відмінність від відомої теоретичної лінії?
У мене є деякі дані, які відповідають приблизно лінійній лінії: Коли я роблю лінійну регресію цих значень, я отримую лінійне рівняння: у= 0,997 х - 0,0136у=0,997х-0,0136y = 0.997x-0.0136 В ідеальному світі рівняння повинно бути .у= ху=хy = x Ясна річ, мої лінійні значення близькі до ідеального, але не зовсім. Моє …

5
Чому лінійна регресія використовує функцію витрат, засновану на вертикальній відстані між гіпотезою та точкою вхідних даних?
Скажімо, у нас є вхідні (прогнозові) та вихідні (відгукові) точки даних A, B, C, D, E, і ми хочемо встановити рядок через точки. Це проста проблема, щоб проілюструвати це питання, але може бути поширена і на більш високі розміри. Постановка проблеми Поточна найкраща відповідність або гіпотеза представлена чорною лінією вище. …


2
Чому лінійна регресія має припущення щодо залишкової, але узагальненої лінійної моделі, має припущення щодо реакції?
Чому лінійна регресія та узагальнена модель мають суперечливі припущення? При лінійній регресії ми припускаємо, що залишковий приходить із форми Гаусса В інших регресіях (логістична регресія, регресія отрути), ми припускаємо, що реакція надходить з деякого розподілу (біноміальний, отруєний тощо). Чому іноді припускають залишковий, а інший час припускають відповідь? Це тому, що …

3
Чому можна регресувати часові ряди?
Це взагалі може бути дивним питанням, але мені, як новачку до теми, цікаво, чому ми використовуємо регресію для зменшення часового ряду, якщо одне з припущень регресії - це дані, які мають ідентифікуватися, тоді як дані, щодо яких застосовується регресія, - це non iid?

2
З огляду на дві лінійні регресійні моделі, яка модель буде краще?
Я взяв курс машинного навчання в коледжі. В одній із цитат було задано це питання. Модель 1: y=θx+ϵy=θx+ϵ y = \theta x + \epsilon Модель 2: y=θx+θ2x+ϵy=θx+θ2x+ϵ y = \theta x + \theta^2 x + \epsilon Яка з перерахованих моделей краще відповідатиме даним? (припустимо, дані можна моделювати за допомогою лінійної …

4
Чому ? (Одна змінна лінійна регресія)
Примітка: SSTSSTSST = сума квадратів Всього, = сума помилок у квадраті , і = сума регресії квадратів. Рівняння в заголовку часто записується як:SSESSESSESSRSSRSSR ∑i=1n(yi−y¯)2=∑i=1n(yi−y^i)2+∑i=1n(y^i−y¯)2∑i=1n(yi−y¯)2=∑i=1n(yi−y^i)2+∑i=1n(y^i−y¯)2\sum_{i=1}^n (y_i-\bar y)^2=\sum_{i=1}^n (y_i-\hat y_i)^2+\sum_{i=1}^n (\hat y_i-\bar y)^2 Досить просте запитання, але я шукаю інтуїтивне пояснення. Інтуїтивно мені здається, що мав би більше сенсу. Наприклад, припустімо, що …

2
Як згладити дані та змусити монотонність
У мене є деякі дані, які я хотів би вирівняти, щоб згладжені точки монотонно зменшувалися. Мої дані різко зменшуються, а потім починають плато. Ось приклад використання R df <- data.frame(x=1:10, y=c(100,41,22,10,6,7,2,1,3,1)) ggplot(df, aes(x=x, y=y))+geom_line() Яка хороша техніка розгладження я могла використовувати? Крім того, було б непогано, якщо я можу змусити …

3
Глибокі нейронні мережі - тільки для класифікації зображень?
Усі приклади, які я знайшов, використовуючи глибокі переконання або звивисті нейронні мережі, використовують їх для класифікації зображень, виявлення символів або розпізнавання мови. Чи корисні глибокі нейронні мережі також корисні для класичних завдань регресії, де функції не структуровані (наприклад, не розташовані в послідовності чи сітці)? Якщо так, чи можете ви навести …

1
Чому моделі змішаних ефектів вирішують залежність?
Скажіть, нас цікавить, як на оцінку студентських іспитів впливає кількість годин, які вивчають ці студенти. Щоб дослідити цей взаємозв'язок, ми могли б запустити таку лінійну регресію: exam.gradesi=a+β1×hours.studiedi+eiexam.gradesi=a+β1×hours.studiedi+ei \text{exam.grades}_i = a + \beta_1 \times \text{hours.studied}_i + e_i Але якщо ми відіб’ємо учнів з кількох різних шкіл, ми можемо очікувати, що учні …

2
GLM: перевірка вибору функції розподілу та зв'язку
У мене є узагальнена лінійна модель, яка приймає функцію Гауссова розподілу та зв'язку каналів. Після встановлення моделі я перевіряю залишки: графік QQ, залишки проти передбачуваних значень, гістограма залишків (визнаючи, що необхідна обережність). Все виглядає добре. Це, мабуть, говорить про те, що вибір гауссового розподілу був досить розумним. Або, принаймні, що …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.