Запитання з тегом «machine-learning»

Алгоритми машинного навчання будують модель навчальних даних. Термін «машинне навчання» нечітко визначений; вона включає те, що також називається статистичним навчанням, підкріпленням навчання, непідвладним навчанням і т. д. ВЖЕ ДОДАЙТЕ БІЛЬШЕ СПЕЦИФІЧНУ МЕТОДУ.

11
Коли лінійну регресію слід назвати "машинним навчанням"?
У недавньому колоквіумі реферат доповідача стверджував, що вони використовують машинне навчання. Під час бесіди єдиним, що стосується машинного навчання, було те, що вони виконують лінійну регресію за своїми даними. Після обчислення коефіцієнтів найкращого пристосування в просторі параметрів 5D вони порівняли ці коефіцієнти в одній системі з коефіцієнтами найкращого пристосування інших …


7
Зміщення та відхилення в перехресній валідації "відхід-один-проти" до кратного перекладу
Як різні методи перехресної валідації порівнюють з точки зору дисперсії моделі та зміщення? Моє запитання частково мотивоване цією темою: Оптимальна кількість складок у кратній перехресній валідації: чи завжди рейтинг резюме найкращий вибір? KKKК. Відповідь наводить на думку, що моделі, засвоєні з перехресною валідацією «відхід один-один», мають більшу дисперсію, ніж ті, …

2
функція активації tanh проти функції активації сигмоїдів
Функція активації tanh: tanh(x)=2⋅σ(2x)−1tanh(x)=2⋅σ(2x)−1tanh \left( x \right) = 2 \cdot \sigma \left( 2 x \right) - 1 Де , сигмоїдна функція, визначається як: .σ(x)σ(x)\sigma(x) σ(x)=ex1+exσ(x)=ex1+ex\sigma(x) = \frac{e^x}{1 + e^x} Запитання: Чи дійсно має значення між цими двома функціями активації (tanh vs. sigma)? Яка функція краще в яких випадках?

5
Що означає "рішення закритої форми"?
Я досить часто зустрічаю термін "рішення закритої форми". Що означає рішення закритої форми? Як можна визначити, чи існує розв’язання формальної форми для даної проблеми? Шукаючи в Інтернеті, я знайшов деяку інформацію, але нічого в контексті розробки статистичної чи ймовірнісної моделі / рішення. Я дуже добре розумію регресію, тому, якщо хтось …

8
Цільова функція, функція витрат, функція втрат: чи це одне і те ж?
У машинному навчанні люди говорять про об'єктивну функцію, функцію витрат, функцію втрат. Це просто різні назви одного і того ж? Коли їх використовувати? Якщо вони не завжди посилаються на одне й те саме, які відмінності?

5
Яка різниця між позаполітичним та політичним навчанням?
Веб-сайт із штучним інтелектом визначає позаполітичне та політичне навчання наступним чином: "Учасник, який перебуває поза політикою, дізнається значення оптимальної політики незалежно від дій агента. Q-навчання - це вчитель, який не відповідає політиці. Учень, який проводить політику, дізнається значення політики, яку проводить агент, включаючи етапи дослідження. . " Я хотів би …

3
Приклад: регресія LASSO з використанням glmnet для двійкового результату
Я починаю балуватися з використанням glmnetз LASSO регресією , де мій результат становить інтерес дихотомический. Я створив невеликий макетний кадр даних нижче: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 

1
Допоможіть мені зрозуміти підтримку векторних машин
Я розумію основи того, що мета підтримки Vector Vector Machines полягає в класифікації вхідного набору на декілька різних класів, але те, що я не розумію, - це деякі деталі, що містять круту. Для початку мене трохи бентежить використання Slack Variables. Яке їх призначення? Я займаюся класифікаційною проблемою, коли я фіксував …

6
Вибір особливостей для "остаточної" моделі при виконанні перехресної перевірки в машинному навчанні
Я трохи розгублений щодо вибору функцій та машинного навчання, і мені було цікаво, чи можете ви мені допомогти. У мене є набір даних мікромасив, який класифікується на дві групи та має 1000 функцій. Моя мета - отримати невелику кількість генів (мої особливості) (10-20) у підписі, які я теоретично зможу застосувати …

3
Чому логістичну регресію не називають логістичною класифікацією?
Оскільки логістична регресія є моделлю статистичної класифікації, яка займається категорично залежними змінними, чому її не називають логістичною класифікацією ? Чи не слід ім'я "Регресія" зарезервувати для моделей, що працюють з постійними залежними змінними?

3
Найкращий спосіб представити випадковий ліс у публікації?
Я використовую алгоритм випадкових лісів як надійний класифікатор двох груп у мікромасивному дослідженні з 1000-ма функціями. Який найкращий спосіб представити випадковий ліс, щоб було достатньо інформації для його відтворення на папері? Чи є метод R в R фактично побудувати дерево, якщо є невелика кількість особливостей? Чи є оцінка OOB рівня …

6
Навіщо використовувати градієнтний спуск для лінійної регресії, коли доступний математичний розчин закритої форми?
Я проходив курси машинного навчання в Інтернеті та дізнався про градієнтний спуск для обчислення оптимальних значень у гіпотезі. h(x) = B0 + B1X чому нам потрібно використовувати Gradient Descent, якщо нам легко знайти значення за наведеною нижче формулою? Це виглядає прямо вперед і легко. але GD потребує декількох ітерацій, щоб …

11
Працевлаштування з пошуку даних без кандидата наук
Я деякий час був дуже зацікавлений у видобутку даних та машинному навчанні , почасти тому, що в школі я поцікавився, але ще й тому, що я справді набагато більше схвильований, намагаючись вирішити проблеми, які потребують трохи більше роздумів, ніж просто програмування знання і рішення яких може мати декілька форм. У …

4
Чому нейронні мережі стають все глибшими, але не ширшими?
Останніми роками конволюційні нейронні мережі (або, можливо, глибокі нейронні мережі взагалі) стають все глибшими і глибшими: сучасні мережі переходять від 7 шарів ( AlexNet ) до 1000 шарів ( Залишкові мережі) в просторі 4 років. Причина підвищення продуктивності з більш глибокої мережі полягає в тому, що можна вивчити більш складну …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.