Запитання з тегом «self-study»

Рутинна вправа з підручника, курсу або тесту, що використовується для класу або самостійного вивчення. Політика цієї громади полягає в тому, щоб "надати корисні підказки" на подібні питання, а не повних відповідей.

5
Як виконати імпутацію значень у дуже великій кількості точок даних?
У мене дуже великий набір даних, і близько 5% випадкових значень відсутні. Ці змінні співвідносяться між собою. Наступний приклад набору даних R - це лише іграшковий приклад з манекено-корельованими даними. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- paste ("M", …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 


4
Очікуване число я буду набирати після малювання карт, поки я не отримаю туза, 2, 3 тощо
У мене виникають проблеми з вирішенням наступного. Ви малюєте карти зі стандартної колоди на 52 картки без заміни, поки не отримаєте туза. Ви отримуєте з того, що залишилося, поки не отримаєте 2. Ви продовжуєте роботу з 3. Яке очікуване число ви будете мати після закінчення всієї колоди? Це було природно …

2
Що таке повна достатня статистика?
У мене є проблеми з розумінням повної достатньої статистики? Нехай є достатньою статистикою.T=ΣxiT=ΣxiT=\Sigma x_i Якщо з ймовірністю 1, для деякої функції , то це повна достатня статистика.E[g(T)]=0E[g(T)]=0E[g(T)]=0ggg Але що це означає? Я бачив приклади уніформи та Бернуллі (стор. 6 http://amath.colorado.edu/courses/4520/2011fall/HandOuts/umvue.pdf ), але це не інтуїтивно, я більше розгубився, побачивши інтеграцію. …

1
Відмінності між PROC змішаними та lme / lmer у R - ступенями свободи
Примітка: це запитання є репостом, оскільки моє попереднє питання довелося видалити з юридичних причин. Порівнюючи PROC MIXED від SAS з функцією lmeз nlmeпакету в R, я натрапив на деякі досить заплутані відмінності. Більш конкретно, ступеня свободи в різних випробувань відрізняються між PROC MIXEDі lme, і я задавався питанням, чому. Почніть …
12 r  mixed-model  sas  degrees-of-freedom  pdf  unbiased-estimator  distance-functions  functional-data-analysis  hellinger  time-series  outliers  c++  relative-risk  absolute-risk  rare-events  regression  t-test  multiple-regression  survival  teaching  multiple-regression  regression  self-study  t-distribution  machine-learning  recommender-system  self-study  binomial  standard-deviation  data-visualization  r  predictive-models  pearson-r  spearman-rho  r  regression  modeling  r  categorical-data  data-visualization  ggplot2  many-categories  machine-learning  cross-validation  weka  microarray  variance  sampling  monte-carlo  regression  cross-validation  model-selection  feature-selection  elastic-net  distance-functions  information-theory  r  regression  mixed-model  random-effects-model  fixed-effects-model  dataset  data-mining 

2
Наближення інтегралів з використанням моделювання Монте-Карло в R
Як я можу наблизити наступний інтеграл за допомогою моделювання MC? ∫1−1∫1−1|x−y|dxdy∫−11∫−11|x−y|dxdy \int_{-1}^{1} \int_{-1}^{1} |x-y| \,\mathrm{d}x \,\mathrm{d}y Дякую! Правка (деякий контекст): Я намагаюся навчитися використовувати моделювання для наближення інтегралів, і я отримую певну практику, коли зіткнувся з деякими труднощами. Редагувати 2 + 3 : Якось заплутався і подумав, що потрібно розділити …

5
Краща класифікація за замовчуванням при логістичній регресії
Повне розкриття: це домашнє завдання. Я включив посилання на набір даних ( http://www.bertelsen.ca/R/logistic-regression.sav ) Моя мета - максимально спрогнозувати неплатників кредитів у цьому наборі даних. Кожна модель, яку я придумав поки що, передбачає> 90% неплатників, але <40% неплатників, що робить ефективність класифікації загальною ~ 80%. Отже, мені цікаво, чи існують …
12 r  logistic  spss  self-study 

4
Що спричиняє нестабільність ласо для вибору функцій?
У стисненому зондуванні існує гарантія теореми про те, що має унікальне розріджене рішення c (докладнішу інформацію див. У додатку).cargmin∥c∥1subject to y=Xcargmin‖c‖1subject to y=Xc\text{argmin} \Vert c \Vert_1\\ \text{subject to } y = Xc ccc Чи існує аналогічна теорема для лассо? Якщо є така теорема, вона не тільки гарантує стабільність ласо, але …

1
Причинний ефект завдяки регулюванням задніх та дверних дверей
Якщо ми хотіли обчислити причинний ефект на Y у причинному графіку нижче, ми можемо використовувати як теорему регулювання задньої двері, так і теореми регулювання передньої двері, тобто P ( y | do ( X = x ) ) = ∑ u P ( y | x , u ) P …

3
Пояснення формули для медіани найближчої точки до початку N зразків з одиничної кулі
В елементах статистичного навчання вводиться проблема висвітлення питань з k-nn у просторах високих розмірів. Існує точок даних, які рівномірно розподілені в -вимірній кулі одиниці.рNNNppp Середня відстань від початку до найближчої точки даних задається виразом: d(p,N)=(1−(12)1N)1pd(p,N)=(1−(12)1N)1pd(p,N) = \left(1-\left(\frac{1}{2}\right)^\frac{1}{N}\right)^\frac{1}{p} Коли , формула розпадається на половину радіуса кулі, і я бачу, як найближча …

1
Точний тест Фішера та гіпергеометричне поширення
Я хотів краще зрозуміти точний тест Фішера, тому я розробив наступний іграшковий приклад, де f і m відповідає чоловічому та жіночому, а n і y відповідає такому "споживання соди", як це: > soda_gender f m n 0 5 y 5 0 Очевидно, це різке спрощення, але я не хотів, щоб …

1
Доведення того, що якщо існує вищий момент, то існує і нижчий момент
-й момент випадкової величини є кінцевим , якщо rrrXXXE(|Xr|)&lt;∞E(|Xr|)&lt;∞ \mathbb E(|X^r|)< \infty Я намагаюся показати, що для будь-якого натурального цілого , тоді -й момент також є кінцевим.s&lt;rs&lt;rs<rsssE[|Xs|]E[|Xs|]\mathbb E[|X^s|]

4
Bootstrap, Монте-Карло
У рамках домашнього завдання мені було задано наступне питання: Розробити та впровадити імітаційне дослідження для вивчення продуктивності завантажувальної програми для отримання 95% довірчих інтервалів на середньому рівні одновимірної вибірки даних. Ваша реалізація може бути в R або SAS. Аспекти ефективності, на які ви можете звернути увагу, - це охоплення довірчого …

1
Як зрозуміти, що MLE Variance є упередженим у розподілі Гаусса?
Я читаю PRML, і картину не розумію. Скажіть, будь ласка, кілька підказок, щоб зрозуміти картину, і чому MLE дисперсії в гауссовій розподілі упереджений? формула 1,55: формула 1.56 μMLE=1N∑n=1NxnμMLE=1N∑n=1Nxn \mu_{MLE}=\frac{1}{N} \sum_{n=1}^N x_n σ2MLE=1N∑n=1N(xn−μMLE)2σMLE2=1N∑n=1N(xn−μMLE)2 \sigma_{MLE}^2=\frac{1}{N}\sum_{n=1}^{N}(x_n-\mu_{MLE})^2

3
Виведення функції регульованої лінійної регресії лінійної регресії за курсом машинного навчання курсу
Я пройшов курс Ендрю Нґ «Машинне навчання» через Coursera кілька місяців тому, не звертаючи уваги на більшість математики / виведення, а натомість зосередився на впровадженні та практичності. З тих пір я почав вивчати деякі основні теорії і переглянув деякі лекції проф. Нг. Я читав його лекцію "Регульована лінійна регресія", і …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.