Запитання з тегом «cart»

"Дерева класифікації та регресії". CART - популярна техніка машинного навчання, і вона є основою для таких методів, як випадкові ліси та загальні впровадження машин для збільшення градієнтів.

2
Хто винайшов дерево рішень?
Я намагаюся простежити, хто винайшов структуру даних та алгоритм дерева рішень. У статті Вікіпедії щодо вивчення дерева рішень є твердження, що "ID3 та CART були винайдені незалежно приблизно в один і той же час (між 1970 і 1980 роками)". Пізніше ID3 був представлений у: Quinlan, JR 1986. Індукція дерев рішень. …
24 cart  history 

2
CHAID проти CRT (або CART)
Я використовую класифікацію дерева рішень за допомогою SPSS для набору даних, що містить близько 20 прогнокторів (категоричний з кількома категоріями). CHAID (Chi-квадрат автоматичного виявлення взаємодії) та CRT / CART (дерева класифікації та регресії) дають мені різні дерева. Чи може хтось пояснити відносні достоїнства CHAID проти CRT? Які наслідки використання одного …
23 spss  cart 

5
Альтернативи деревам класифікації з кращою прогнозованою (наприклад: CV) роботою?
Я шукаю альтернативу Класифікаційним деревам, яка могла б дати кращу прогнозовану здатність. Дані, з якими я маю справу, мають фактори як для пояснювальних, так і для пояснених змінних. Я пам’ятаю, що в цьому контексті натрапляв на випадкові ліси та нейронні мережі, хоч ніколи раніше не пробував їх, чи є ще …

1
Як алгоритми навчання дерев рішень поводяться з відсутніми значеннями (під кришкою)
Назвіть методи, якими алгоритми навчання дерев рішень використовують для боротьби з відсутніми значеннями. Чи просто вони заповнюють слот, використовуючи значення, яке називається відсутнім? Спасибі.

2
Який взаємозв'язок між оцінкою GINI та коефіцієнтом ймовірності ймовірності
Я вивчаю класифікаційні та регресійні дерева, і одним із заходів щодо місця розбиття є оцінка GINI. Зараз я звик визначати найкраще розділене місце, коли журнал коефіцієнта ймовірності одних і тих же даних між двома розподілами дорівнює нулю, тобто ймовірність членства однаково вірогідна. Моя інтуїція говорить про те, що повинен бути …

4
Чи є дерева рішень майже завжди бінарними деревами?
Майже кожен приклад дерева, який я зустрічав, є двійковим деревом. Це досить універсально? Чи підтримують більшість стандартних алгоритмів (C4.5, CART тощо) лише бінарні дерева? З того, що я збираю, CHAID не обмежується двійковими деревами, але це, здається, є винятком. Двосторонній розкол з наступним двостороннім розщепленням на одного з дітей - …

4
Як спроектувати новий вектор на простір PCA?
Після проведення аналізу основних компонентів (PCA) я хочу спроектувати новий вектор на простір PCA (тобто знайти його координати в системі координат PCA). Я розрахував PCA мовою R за допомогою prcomp. Тепер я повинен мати можливість помножити свій вектор на матрицю обертання PCA. Чи повинні головні компоненти в цій матриці розташовуватися …
21 r  pca  r  variance  heteroscedasticity  misspecification  distributions  time-series  data-visualization  modeling  histogram  kolmogorov-smirnov  negative-binomial  likelihood-ratio  econometrics  panel-data  categorical-data  scales  survey  distributions  pdf  histogram  correlation  algorithms  r  gpu  parallel-computing  approximation  mean  median  references  sample-size  normality-assumption  central-limit-theorem  rule-of-thumb  confidence-interval  estimation  mixed-model  psychometrics  random-effects-model  hypothesis-testing  sample-size  dataset  large-data  regression  standard-deviation  variance  approximation  hypothesis-testing  variance  central-limit-theorem  kernel-trick  kernel-smoothing  error  sampling  hypothesis-testing  normality-assumption  philosophical  confidence-interval  modeling  model-selection  experiment-design  hypothesis-testing  statistical-significance  power  asymptotics  information-retrieval  anova  multiple-comparisons  ancova  classification  clustering  factor-analysis  psychometrics  r  sampling  expectation-maximization  markov-process  r  data-visualization  correlation  regression  statistical-significance  degrees-of-freedom  experiment-design  r  regression  curve-fitting  change-point  loess  machine-learning  classification  self-study  monte-carlo  markov-process  references  mathematical-statistics  data-visualization  python  cart  boosting  regression  classification  robust  cart  survey  binomial  psychometrics  likert  psychology  asymptotics  multinomial 

4
Чи існує алгоритм, що нагадує дерево рішень для непідконтрольного кластеризації?
У мене набір даних складається з 5 функцій: A, B, C, D, E. Всі вони є числовими значеннями. Замість того, щоб робити кластеризацію на основі щільності, я хочу зробити це кластеризувати дані у формі дерева, що нагадує рішення. Я маю на увазі такий підхід: Алгоритм може розділити дані на X …

2
Яким чином випадковий ліс породжує випадковий ліс
Я не фахівець з випадкових лісів, але чітко розумію, що ключовим питанням випадкового лісу є (випадкове) генерування дерев. Чи можете ви пояснити мені, як генеруються дерева? (тобто Який використовуваний розподіл для генерації дерев?) Спасибі заздалегідь !

3
Чи є пень рішення лінійною моделлю?
Пень рішення - дерево рішень, що має лише один розкол. Він також може бути записаний як кусочно функція. Наприклад, припустимо, що - вектор, а - перший компонент , в регресійному режимі деякий пень рішення може бутих 1 ххxxх1x1x_1хxx f(x)={35x1≤2x1>2f(x)={3x1≤25x1>2f(x)= \begin{cases} 3& x_1\leq 2 \\ 5 & x_1 > 2 \\ …

1
Що таке "простір функцій"?
Що таке визначення "простір функцій"? Наприклад, читаючи про SVM, я читав про "відображення в просторі для функцій". Читаючи про CART, я читав про "розділення для розміщення простору". Я розумію, що відбувається, особливо для CART, але думаю, що є якесь визначення, яке я пропустив. Чи існує загальне визначення поняття "простір функцій"? …

3
Чи є випадковий ліс для регресії "справжньою" регресією?
Для регресії використовуються випадкові ліси. Однак, наскільки я розумію, вони призначають середнє цільове значення для кожного аркуша. Оскільки в кожному дереві є лише обмежене листя, є лише конкретні значення, які ціль може отримати з нашої регресійної моделі. Отже, це не просто "дискретна" регресія (як ступінчаста функція), а не така, як …

2
Глибоке навчання проти дерев рішень та прискорення методів
Я шукаю статті чи тексти, які порівнюють та обговорюють (емпірично чи теоретично): Подвоєння і дерев рішень алгоритми , такі як випадкових лісів або AdaBoost і GentleBoost стосовно до дерев рішень. з Методи глибокого навчання, такі як машини з обмеженим Больцманом , ієрархічна часова пам’ять , конволюційні нейронні мережі тощо. Більш …

1
Що таке розмір VC дерева рішень?
Який розмір VC дерева рішень з k розбивається на два виміри? Скажімо, модель CART, і єдині дозволені розколи паралельні осям. Отже, за один розкол ми можемо замовити 3 бали в трикутнику, а потім для будь-якого маркування точок ми могли б отримати ідеальний прогноз (тобто: розбиті точки) А як щодо 2-х …

1
Підвищення та захоплення дерев (XGBoost, LightGBM)
Є багато повідомлень в блогах, відео на YouTube і т.д. про ідеях розфасовки або підвищення дерев. Моє загальне розуміння полягає в тому, що псевдокод для кожного такий: Мішок: Візьміть N випадкових вибірок x% зразків і y% ознак Встановіть свою модель (наприклад, дерево рішень) на кожен з N Прогнозуйте з кожним …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.