Запитання з тегом «random-forest»

Випадковий ліс - це метод машинного навчання, заснований на поєднанні результатів багатьох дерев рішень.

3
Різниця між випадковим лісом і надзвичайно рандомізованими деревами
Я зрозумів, що випадкові ліси та надзвичайно рандомізовані дерева відрізняються тим, що розщеплення дерев у Випадковому лісі є детермінованими, тоді як вони є випадковими у випадку надзвичайно рандомізованих дерев (якщо бути точнішим, наступний розкол - найкращий розкол серед випадкових рівномірних розщеплень у вибраних змінних для поточного дерева). Але я не …

1
Розрахований вручну
Я знаю, що це досить специфічне Rзапитання, але я, можливо, думаю про відхилення в пропорції, пояснене, , неправильно. Ось іде.R2R2R^2 Я намагаюся використовувати Rпакет randomForest. У мене є деякі дані про навчання та дані тестування. Коли я підходить до випадкової лісової моделі, ця randomForestфункція дозволяє вводити нові дані тестування для …

6
Удосконалити класифікацію за допомогою багатьох категоричних змінних
Я працюю над набором даних з 200 000+ зразків і приблизно 50 особливостей на вибірку: 10 безперервних змінних, а інші ~ 40 - категоричні змінні (країни, мови, наукові галузі тощо). Для цих категоричних змінних у вас є, наприклад, 150 різних країн, 50 мов, 50 наукових галузей тощо ... Поки мій …

3
Створення «оцінки визначеності» з голосів у випадкових лісах?
Я хочу підготувати класифікатора, який буде розмежовувати об'єкти Type Aта Type Bоб'єкти з досить великим навчальним набором з приблизно 10000 об'єктів, приблизно половина з яких є, Type Aа половина - Type B. Набір даних складається з 100 безперервних функцій, що деталізують фізичні властивості комірок (розмір, середній радіус тощо). Візуалізація даних …

3
Як інтерпретувати OOB та матрицю плутанини для випадкових лісів?
Я отримав сценарій R від когось, щоб запустити випадкову лісову модель. Я змінив і запустив його з деякими даними про співробітників. Ми намагаємось передбачити добровільні розлуки. Ось додаткова інформація: це класифікаційна модель: 0 = перебування працівника, 1 = працівник припинено, зараз ми дивимося лише на десяток змінних прогнозів, дані "незбалансовані", …

3
Як інтерпретувати середнє зниження точності та середнє зниження GINI у моделях випадкових лісів
У мене виникають труднощі з розумінням того, як інтерпретувати вихідний показник важливості з пакету Random Forest. Середнє зниження точності зазвичай характеризується як "зниження точності моделі від перестановки значень у кожній функції". Це твердження про функцію в цілому або про конкретні значення в межах функції? В будь-якому випадку, чи означає середнє …

3
Яким чином випадкові ліси не чутливі до людей, що пережили?
Я читав у кількох джерелах, включаючи це , про те, що випадкові ліси не чутливі до людей, що переживають люди (наприклад, Логістична регресія та інші методи боротьби з МС). Однак дві інтуїції говорять мені про інше: Щоразу, коли будується дерево рішень, усі точки повинні бути класифіковані. Це означає, що навіть …

2
Чи не будуть сильно корельовані змінні у випадковій лісовій деформації точності та вибору ознак?
На моє розуміння, сильно корельовані змінні не спричинять проблем мультиколінеарності у випадковій лісовій моделі (Будь ласка, виправте мене, якщо я помиляюся). Однак, з іншого боку, якщо у мене буде занадто багато змінних, що містять подібну інформацію, чи буде вага цієї моделі занадто великою, ніж інші? Наприклад, є два набори інформації …

2
Відносна важливість набору предикторів у випадковій класифікації лісів у R
Я хотів би визначити відносну важливість наборів змінних до randomForestкласифікаційної моделі в Р. importanceФункція забезпечує MeanDecreaseGiniметрику для кожного окремого предиктора - чи це так просто, як підсумовувати це для кожного предиктора в наборі? Наприклад: # Assumes df has variables a1, a2, b1, b2, and outcome rf <- randomForest(outcome ~ ., …

3
Наскільки R масштабує завдання для класифікації тексту? [зачинено]
Я намагаюся досягти швидкості з R. Я врешті-решт хочу використовувати R-бібліотеки для класифікації тексту. Мені було просто цікаво, який досвід людей щодо масштабованості R, коли мова йде про класифікацію тексту. Я, швидше за все, зіткнувся з великими розмірними даними (~ 300k розмірів). Я дивлюся на використання SVM та Random Forest, …


3
R: Випадковий ліс, який кидає NaN / Inf у помилці "виклику іноземної функції", незважаючи на відсутність набору даних NaN [закритий]
Зачинено. Це питання поза темою . Наразі відповіді не приймаються. Хочете вдосконалити це питання? Оновіть питання, щоб воно було тематичним для перехресної перевірки. Закрито 2 роки тому . Я використовую caret, щоб запустити перехрещений випадковий ліс над набором даних. Змінна Y - фактор. У моєму наборі даних немає NaN, Inf …

1
Перетворення матриці подібності в матрицю відстані (евклідова)
У алгоритмі випадкових лісів Брейман (автор) будує матрицю подібності таким чином: Надсилайте всі приклади навчання вниз по кожному дереву в лісі Якщо два приклади приземляються в один приріст листя, відповідний елемент у матриці подібності на 1 Нормалізуйте матрицю з кількістю дерев Він каже: Близькість між випадками n і k утворює …


4
Чи є реалізація Random Forest, яка добре працює з дуже рідкими даними?
Чи є R випадкова реалізація лісу, яка добре працює з дуже рідкими даними? У мене є тисячі або мільйони булевих вхідних змінних, але лише сотні або близько того будуть ПРАВИЛЬНИми для будь-якого прикладу. Я відносно новий в R і помітив, що існує пакет "Матриця" для роботи з розрідженими даними, але …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.