Запитання з тегом «error»

Помилка оцінки або прогнозування - це її відхилення від справжнього значення, яке може бути непомітним (наприклад, параметри регресії) або помітним (наприклад, майбутніми реалізаціями). Використовуйте тег [message-message], щоб запитати про програмні помилки.

3
Що робити, якщо залишки звичайно розподіляються, але у ні?
У мене дивне запитання. Припустимо, що у вас є невеликий зразок, де залежна змінна, яку ви збираєтеся аналізувати за допомогою простої лінійної моделі, сильно зліва нахилена. Таким чином, ви припускаєте, що нормально не розподіляється, оскільки це призведе до нормально розподіленого y . Але коли ви обчислюєте графік QQ-Normal, є докази …

6
Чи є залишки "прогнозовані мінус фактичні" або "фактичні мінуси прогнозовані"
Я бачив, що "залишки" визначаються по-різному як "передбачувані мінус фактичні значення" або "фактичні мінус прогнозовані значення". Для ілюстрації, щоб показати, що обидві формули широко використовуються, порівняйте такі пошукові веб-сторінки: залишковий "прогнозований мінус фактичний" залишковий "фактичний мінус передбачуваний" На практиці це майже ніколи не має значення, оскільки ознака невидимих ​​залишків зазвичай …

1
Різниця між GradientDescentOptimizer та AdamOptimizer (TensorFlow)?
Я написав простий MLP в TensorFlow, який моделює XOR-ворота . Отже для: input_data = [[0., 0.], [0., 1.], [1., 0.], [1., 1.]] він повинен виробляти наступне: output_data = [[0.], [1.], [1.], [0.]] Мережа має вхідний шар, прихований шар та вихідний шар з 2, 5 та 1 нейроном кожен. В даний …

1
Як інтерпретувати заходи помилок?
Я запускаю класифікацію у Weka для певного набору даних, і я помітив, що якщо я намагаюся передбачити номінальне значення, то вихід конкретно показує правильно та неправильно прогнозовані значення. Однак тепер я запускаю його для числового атрибута, а вихід: Correlation coefficient 0.3305 Mean absolute error 11.6268 Root mean squared error 46.8547 …

5
Чи мінімізація помилки у квадраті еквівалентна мінімізації абсолютної помилки? Чому квадратна помилка популярніша за останню?
Коли ми проводимо лінійну регресію щоб помістити купу точок даних , класичний підхід мінімізує помилку у квадраті. Мене давно спантеличено питанням, що мінімізація помилки в квадраті дасть такий самий результат, як мінімізація абсолютної помилки ? Якщо ні, то чому мінімізувати помилку в квадраті краще? Чи є якась інша причина, крім …

2
ImageNet: що таке коефіцієнт помилок топ-1 та топ-5?
У класифікаційних роботах ImageNet коефіцієнт помилок топ-1 та топ-5 є важливими одиницями для вимірювання успішності деяких рішень, але які показники помилок? У класифікації ImageNet з глибокими згортковими нейронними мережами Крижевського та ін. кожне рішення, засноване на одній єдиній CNN (стор. 7), не має кращих 5 помилок, тоді як у тих, …

3
Як інтерпретувати OOB та матрицю плутанини для випадкових лісів?
Я отримав сценарій R від когось, щоб запустити випадкову лісову модель. Я змінив і запустив його з деякими даними про співробітників. Ми намагаємось передбачити добровільні розлуки. Ось додаткова інформація: це класифікаційна модель: 0 = перебування працівника, 1 = працівник припинено, зараз ми дивимося лише на десяток змінних прогнозів, дані "незбалансовані", …

3
Чому існує різниця між ручним обчисленням логістичної регресії 95% довірчого інтервалу та використанням функції conint () в R?
Дорогі всі - я помітив щось дивне, чого я не можу пояснити, чи не так? Підсумовуючи: ручний підхід до обчислення довірчого інтервалу в моделі логістичної регресії та функції R confint()дають різні результати. Я пережив прикладну логістичну регресію Hosmer & Lemeshow (2-е видання). У 3-й главі є приклад обчислення коефіцієнта шансів …
34 r  regression  logistic  confidence-interval  profile-likelihood  correlation  mcmc  error  mixture  measurement  data-augmentation  r  logistic  goodness-of-fit  r  time-series  exponential  descriptive-statistics  average  expected-value  data-visualization  anova  teaching  hypothesis-testing  multivariate-analysis  r  r  mixed-model  clustering  categorical-data  unsupervised-learning  r  logistic  anova  binomial  estimation  variance  expected-value  r  r  anova  mixed-model  multiple-comparisons  repeated-measures  project-management  r  poisson-distribution  control-chart  project-management  regression  residuals  r  distributions  data-visualization  r  unbiased-estimator  kurtosis  expected-value  regression  spss  meta-analysis  r  censoring  regression  classification  data-mining  mixture 

4
Як обчислити відносну помилку, коли справжнє значення дорівнює нулю?
Як обчислити відносну помилку, коли справжнє значення дорівнює нулю? Скажіть, у мене xtrue=0xtrue=0x_{true} = 0 і xtestxtestx_{test} . Якщо я визначаю відносну помилку як: relative error=xtrue−xtestxtruerelative error=xtrue−xtestxtrue\text{relative error} = \frac{x_{true}-x_{test}}{x_{true}} Тоді відносна похибка завжди не визначена. Якщо замість цього я використовую визначення: relative error=xtrue−xtestxtestrelative error=xtrue−xtestxtest\text{relative error} = \frac{x_{true}-x_{test}}{x_{test}} Тоді відносна …

1
Наскільки неправильною є модель регресії, коли припущення не виконуються?
Під час встановлення регресійної моделі, що відбувається, якщо припущення виходів не виконані, зокрема: Що станеться, якщо залишки не є гомосептичними? Якщо залишки показують зростаючу чи зменшувальну картину в графіку Залишкові та Пристосовані. Що станеться, якщо залишки нормально не поширюються і не виконають тест Шапіро-Вілка? Тест на нормальність Шапіро-Вілка є дуже …

1
Обчислювальна повторюваність ефектів від lmer-моделі
Я щойно натрапив на цю статтю , в якій описано, як обчислити повторюваність (він же - надійність, також внутрішньокласова кореляція) вимірювання за допомогою моделювання змішаних ефектів. R-код буде: #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc = VarCorr(fit) residual_var = attr(vc,'sc')^2 intercept_var = attr(vc$id,'stddev')[1]^2 #compute the unadjusted …
28 mixed-model  reliability  intraclass-correlation  repeatability  spss  factor-analysis  survey  modeling  cross-validation  error  curve-fitting  mediation  correlation  clustering  sampling  machine-learning  probability  classification  metric  r  project-management  optimization  svm  python  dataset  quality-control  checking  clustering  distributions  anova  factor-analysis  exponential  poisson-distribution  generalized-linear-model  deviance  machine-learning  k-nearest-neighbour  r  hypothesis-testing  t-test  r  variance  levenes-test  bayesian  software  bayesian-network  regression  repeated-measures  least-squares  change-scores  variance  chi-squared  variance  nonlinear-regression  regression-coefficients  multiple-comparisons  p-value  r  statistical-significance  excel  sampling  sample  r  distributions  interpretation  goodness-of-fit  normality-assumption  probability  self-study  distributions  references  theory  time-series  clustering  econometrics  binomial  hypothesis-testing  variance  t-test  paired-comparisons  statistical-significance  ab-test  r  references  hypothesis-testing  t-test  normality-assumption  wilcoxon-mann-whitney  central-limit-theorem  t-test  data-visualization  interactive-visualization  goodness-of-fit 

2
Яка різниця між дисперсією та середньою помилкою у квадраті?
Я здивований, що цього раніше не задавали, але я не можу знайти питання на stats.stackexchange. Це формула для обчислення дисперсії нормально розподіленої вибірки: ∑(X−X¯)2n−1∑(X−X¯)2n−1\frac{\sum(X - \bar{X}) ^2}{n-1} Це формула для обчислення середньої квадратичної помилки спостережень у простій лінійній регресії: ∑(yi−y^i)2n−2∑(yi−y^i)2n−2\frac{\sum(y_i - \hat{y}_i) ^2}{n-2} Яка різниця між цими двома формулами? Єдина …
27 variance  error 

8
Чи мають рядки помилок щодо ймовірностей якесь значення?
Люди часто кажуть, що певна подія має 50-60% шансів відбутися. Іноді я навіть бачу, як люди дають явні смуги помилок у присвоєнні ймовірностей. Чи мають ці висловлювання якесь значення чи вони просто мовна вигадка дискомфорту, вибираючи конкретне число для чогось, що по суті не пізнається?

2
Як розробити та реалізувати асиметричну функцію втрат для регресії?
Проблема У регресії звичайно обчислюється середня помилка у квадраті (MSE) для вибірки: для вимірювання якості прогноктора.MSE=1n∑i=1n(g(xi)−gˆ(xi))2MSE=1n∑i=1n(g(xi)−g^(xi))2 \text{MSE} = \frac{1}{n} \sum_{i=1}^n\left(g(x_i) - \widehat{g}(x_i)\right)^2 Зараз я працюю над проблемою регресії, де мета полягає в тому, щоб передбачити ціну, яку клієнти готові платити за товар з урахуванням ряду числових особливостей. Якщо прогнозована ціна …


Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.