Запитання з тегом «python»

Python - мова програмування, яка зазвичай використовується для машинного навчання. Використовуйте цей тег для будь-якого питання * на тему *, що (a) включає `Python` або як критичну частину запитання або очікувану відповідь; & (b) не є * лише * про те, як використовувати` Python`.

6
Приховані моделі Маркова з алгоритмом Баума-Велча з використанням пітона
Я шукаю певну реалізацію python (у чистому пітоні чи обгортанні існуючих матеріалів) HMM та Baum-Welch. Якісь ідеї? Я щойно шукав у Google, і знайшов по-справжньому поганий матеріал стосовно інших методик машинного навчання. Чому?

5
Яку мову програмування ви рекомендуєте для прототипування проблеми машинного навчання?
Зараз працюю в Octave, але через погану документацію прогрес дуже повільний. Яку мову легко вивчити та використовувати та добре задокументовану для вирішення проблем машинного навчання? Я шукаю прототип на невеликому наборі даних (тисячі прикладів), тому швидкість не важлива. EDIT: Я розробляю систему рекомендацій. Отже, мені цікаво використовувати регульовану лінійну регресію, …

5
Як ефективно обчислити ядро ​​Гаусса в numpy [закрито]
Зачинено. Це питання поза темою . Наразі відповіді не приймаються. Хочете вдосконалити це питання? Оновіть питання, щоб воно було тематичним для перехресної перевірки. Закрито 3 роки тому . У мене є nummy масив з m стовпцями та n рядками, стовпці мають розміри та рядки даних. Тепер мені потрібно обчислити значення …

4
Як виконати PCA для даних дуже високої розмірності?
Щоб виконати аналіз основних компонентів (PCA), ви повинні відняти засоби кожного стовпця з даних, обчислити матрицю коефіцієнтів кореляції, а потім знайти власні вектори та власні значення. Ну, швидше, це те, що я зробив для його реалізації в Python, за винятком того, що він працює лише з невеликими матрицями, оскільки метод …
12 pca  python 

1
Що показує графік автокореляції (панди)?
Я початківець і намагаюся зрозуміти, що показує графік автокореляції. Я прочитав кілька пояснень з різних джерел, таких як ця сторінка або пов’язана сторінка Вікіпедії, серед інших, які я тут не цитую. У мене є цей дуже простий код, де в моєму індексі я є дати на рік, а значення просто …

2
Тест Колмогорова – Смірнова: p-значення та ks-тест зменшуються зі збільшенням кількості вибірки
Чому р-значення та ks-тест-статистика зменшуються зі збільшенням розміру вибірки? Візьмемо цей приклад Python як приклад: import numpy as np from scipy.stats import norm, ks_2samp np.random.seed(0) for n in [10, 100, 1000, 10000, 100000, 1000000]: x = norm(0, 4).rvs(n) y = norm(0, 4.1).rvs(n) print ks_2samp(x, y) Результати: Ks_2sampResult(statistic=0.30000000000000004, pvalue=0.67507815371659508) Ks_2sampResult(statistic=0.080000000000000071, pvalue=0.89375155241057247) …

6
Методи в R або Python для вибору функції в непідконтрольному навчанні [закрито]
Зачинено. Це питання поза темою . Наразі відповіді не приймаються. Хочете вдосконалити це питання? Оновіть питання, щоб воно було тематичним для перехресної перевірки. Закрито 2 роки тому . Які доступні методи / реалізація в R / Python для відмови / вибору неважливих / важливих функцій у даних? Мої дані не …

8
Візуалізація даних високих розмірів
У мене є зразки двох класів, які є векторами у просторі великого розміру, і я хочу побудувати їх у 2D або 3D. Я знаю про методи зменшення розмірності, але мені потрібен дійсно простий і простий у використанні інструмент (в matlab, python або заздалегідь вбудований .exe). Також мені цікаво, чи буде …

1
Як намалювати сюжетний осад у пітоні? [зачинено]
Зачинено. Це питання поза темою . Наразі відповіді не приймаються. Хочете вдосконалити це питання? Оновіть питання, щоб воно було тематичним для перехресної перевірки. Закритий минулого року . Я використовую сингулярне векторне розкладання на матриці та отримую матриці U, S та Vt. На даний момент я намагаюся вибрати поріг для кількості …

2
Візуалізація багатовимірних даних (LSI) у 2D
Я використовую приховану семантичну індексацію, щоб знайти схожість між документами ( спасибі, JMS! ) Після зменшення розміру я спробував кластеризувати k-засоби, щоб згрупувати документи в кластери, що працює дуже добре. Але я хотів би піти трохи далі і візуалізувати документи як набір вузлів, де відстань між будь-якими двома вузлами обернено …

1
R / mgcv: Чому тензорні вироби te () і ti () створюють різні поверхні?
У mgcvпакеті Rє дві функції для встановлення тензорних взаємодій між продуктами: te()і ti(). Я розумію основний розподіл праці між двома (встановлення нелінійної взаємодії проти декомпозиції цієї взаємодії на основні ефекти та взаємодію). Чого я не розумію, це чому te(x1, x2)і ti(x1) + ti(x2) + ti(x1, x2)може давати (трохи) різні результати. …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

4
Аналіз основних компонентів та регресія в Python
Я намагаюся розібратися, як відтворити в Python якусь роботу, яку я робив у SAS. Використовуючи цей набір даних , де мультиколінеарність є проблемою, я хотів би провести аналіз основних компонентів у Python. Я переглянув scikit-learn та statsmodels, але я не впевнений, як взяти їх результат та перетворити його на ту …

2
Гранічний графік рішення для перцептрона
Я намагаюся побудувати межу рішення алгоритму перцептрона, і я дуже заплутаний у кількох речах. Мої вхідні екземпляри мають форму , в основному 2D вхідний екземпляр ( і ) і цільове значення двійкового класу ( ) [1 або 0].х 1 х 2 у[ ( х1, х2) , у][(x1,x2),y][(x_{1},x_{2}), y]х1x1x_{1}х2x2x_{2}уyy Звідси мій …

1
Чи слід обрати регресора або класифікатора випадкових лісів?
Я вміщую набір даних з двійковим цільовим класом випадковим лісом. У python я можу це зробити або випадковим лісовим класифікатором, або випадковим лісовим регресором. Я можу отримати класифікацію безпосередньо від randomforestclassifier або я можу спершу запустити randomforestregressor і отримати набір оціночних балів (безперервне значення). Тоді я можу знайти значення відсікання …

3
Чому я отримую ентропію інформації більше 1?
Я реалізував таку функцію для обчислення ентропії: from math import log def calc_entropy(probs): my_sum = 0 for p in probs: if p > 0: my_sum += p * log(p, 2) return - my_sum Результат: >>> calc_entropy([1/7.0, 1/7.0, 5/7.0]) 1.1488348542809168 >>> from scipy.stats import entropy # using a built-in package # …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.