Запитання з тегом «random-forest»

Випадковий ліс - це метод машинного навчання, заснований на поєднанні результатів багатьох дерев рішень.

2
Важливе значення має фіктивні змінні
Я намагаюся зрозуміти, як я можу отримати важливість функції категоричної змінної, яка була розбита на фіктивні змінні. Я використовую scikit-learn, який не обробляє для вас категоричні змінні, як це роблять R або h2o. Якщо я розбиваю категоричну змінну вниз на манекенні змінні, я отримую окремі імпорти функцій для класу в …

1
Чи відповідає значення R-квадрата для порівняння моделей?
Я намагаюся визначити найкращу модель для прогнозування цін на автомобілі, використовуючи ціни та можливості, доступні на сайтах рекламних оголошень для автомобілів. Для цього я використав пару моделей з бібліотеки scikit-learn та моделей нейронної мережі з пібраїну та нейролаб. Я використовував поки що підхід - це запустити фіксовану кількість даних через …

3
Які алгоритми потребують масштабування функцій, крім SVM?
Я працюю з багатьма алгоритмами: RandomForest, DecisionTrees, NaiveBayes, SVM (ядро = лінійне та rbf), KNN, LDA та XGBoost. Усі вони були досить швидкими, за винятком SVM. Саме тоді я дізнався, що для швидшого роботи потрібне масштабування функцій. Тоді я задумався, чи варто робити те ж саме для інших алгоритмів.

1
У випадковому лісі більший чи гірший% IncMSE?
Після того, як я побудував (регресійну) випадкову лісову модель в R, виклик rf$importanceнадає мені два заходи для кожної змінної предиктора %IncMSEта IncNodePurity. Чи є інтерпретація, що змінні предиктора з меншими %IncMSEзначеннями важливіші, ніж змінні предиктора з більшими %IncMSEзначеннями? Як щодо IncNodePurity?

2
Вибір особливостей за допомогою випадкових лісів
У мене є набір даних з переважно фінансовими змінними (120 функцій, приклади 4 к), які в основному є дуже корельованими та дуже галасливими (наприклад, технічні показники), тому я хотів би вибрати приблизно 20-30 для подальшого використання при навчанні моделі (двійкова класифікація - збільшення / зменшення). Я думав про використання випадкових …

5
Як класифікувати за випадковими лісами в R, як слід регулювати незбалансовані розміри класів?
Я вивчаю різні методи класифікації проекту, над яким я працюю, і мені цікаво спробувати випадкові ліси. Я намагаюся просвітити себе, коли я йду разом, і буду вдячний за будь-яку допомогу, надану спільнотою CV. Я розділив свої дані на навчальні / тестові набори. Від експериментів зі випадковими лісами в R (використовуючи …

2
Чи можливий / практичний випадковий ліс з кількома виходами?
Випадкові ліси (RFs) - конкурентоспроможний метод моделювання / видобутку даних. Модель РФ має один вихід - змінну виводу / прогнозування. Наївним підходом до моделювання декількох виходів з радіочастотними сигналами було б побудова RF для кожної вихідної змінної. Таким чином, ми маємо N незалежних моделей, і там, де є кореляція між …

2
За яких умов машини для підвищення градієнта перевершують випадкові ліси?
Чи може градієнтний прискорювач Фрідмана досягти кращих показників, ніж з випадковим лісом Бреймана ? Якщо так, то в яких умовах або який набір даних може покращити gbm?

4
Низька точність класифікації, що робити далі?
Отже, я новачок у галузі ML та намагаюся зробити якусь класифікацію. Моя мета - передбачити результат спортивної події. Я зібрав декілька історичних даних і зараз намагаюся підготувати класифікатора. У мене було близько 1200 зразків, 0,2 з них я розділив для тестових цілей, інші я вклав у пошук сітки (включена перехресна …

1
R пакет для зваженого випадкового лісу? варіант classwt?
Я намагаюся використовувати Random Forest для прогнозування результатів надзвичайно незбалансованого набору даних (показник класу меншості становить приблизно лише 1% або навіть менше). Оскільки традиційний алгоритм випадкового лісу мінімізує загальний показник помилок, а не приділяє особливу увагу класам меншин, він не застосовується безпосередньо для незбалансованих даних. Тому я хочу віднести високу …
16 r  random-forest 

2
Чи потрібні випадкові ліси для введення змінних або масштабування вхідних змінних?
Мої вхідні змінні мають різні розміри. Деякі змінні десяткові, а деякі сотні. Чи важливо централізувати (віднімати середнє значення) або масштабувати (поділити на стандартне відхилення) ці вхідні змінні, щоб зробити дані безрозмірними при використанні випадкових лісів?

2
Яку міру помилки в навчанні повідомити про випадкові ліси?
Наразі я підганяю випадкові ліси для проблеми класифікації, використовуючи randomForestпакунок на R, і не знаю, як повідомити про помилку навчання для цих моделей. Моя помилка тренінгу близька до 0%, коли я обчислюю її за допомогою передбачень, які я отримую за допомогою команди: predict(model, data=X_train) де X_trainдані про навчання. Відповідаючи на …

3
Як `predict.randomForest` оцінює ймовірності класу?
Як randomForestоцінює ймовірність класу пакетів, коли я використовую predict(model, data, type = "prob")? Я використовував rangerдля навчання випадкових лісів, використовуючи probability = Tаргумент для прогнозування ймовірностей. rangerв документації говорить, що це: Вирощувати ймовірнісні ліси, як у Malley et al. (2012 р.). Я імітував деякі дані і спробував обидва пакети та …

1
Який багаторазовий метод порівняння використовувати для lmer-моделі: lsmeans або glht?
Я аналізую набір даних, використовуючи модель змішаних ефектів з одним фіксованим ефектом (умовою) та двома випадковими ефектами (учасник, обумовлений в рамках проекту та пари). Модель була згенерована з lme4пакетом: exp.model<-lmer(outcome~condition+(1|participant)+(1|pair),data=exp). Далі я провів перевірку коефіцієнта ймовірності цієї моделі проти моделі без фіксованого ефекту (умови) і маю суттєву різницю. У моєму …

2
Помилка Out of Bag робить резюме непотрібним у випадкових лісах?
Я досить новачок у випадкових лісах. У минулому я завжди порівнював точність підгонки проти тесту проти пристосування проти поїзда, щоб виявити будь-який набір. Але я просто прочитав тут таке: "У випадкових лісах немає необхідності в перехресній валідації або в окремому наборі тесту, щоб отримати неупереджену оцінку помилки набору тестів. Оцінюється …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.