У випадковому ліс являє собою набір з декількох дерев рішення , які навчаються незалежно один від одного . Таким чином, немає поняття послідовно залежного тренінгу (що стосується прискорення алгоритмів ). В результаті цього, як було сказано в іншій відповіді, можна зробити паралельну підготовку дерев.
Можливо, ви хочете знати, звідки походить "випадковий" у випадковому лісі: є два способи, за допомогою яких випадковість вводиться у процес вивчення дерев. По-перше, це випадковий вибір точок даних, що використовуються для навчання кожного з дерев, а другий - випадковий вибір функцій, що використовуються при побудові кожного дерева. Оскільки одне дерево рішень зазвичай має перевагу над даними, ін'єкція випадковості таким чином призводить до того, що існує дерево дерев, де кожне з них має хорошу точність (і, можливо, перевищення) для іншого підмножини наявних навчальних даних . Тому, коли ми беремо середнє значення прогнозів, зроблених усіма деревами, ми спостерігатимемо зменшення перевитрати (порівняно з випадком навчання одного дерева рішень за всіма наявними даними ).
Щоб краще зрозуміти це, ось приблизний ескіз навчального процесу, припускаючи, що всі точки даних зберігаються у наборі, позначеному а кількість дерев у лісі - :MN
- i=0
- Візьме зразок boostrap з (тобто вибірки з заміною і з таким же розміром , як ) , який позначається .MMSi
- Повчайте -е дерево, позначене як , використовуючи в якості вхідних даних.
iTiSi
- тренувальний процес такий самий, як і тренування дерева рішень, за винятком різниці, що для кожного вузла в дереві використовується лише випадковий вибір функцій для розбиття цього вузла.
- i=i+1
- якщо перейдіть до кроку 2, інакше всі дерева пройшли навчання, тож випадкове навчання лісу закінчено.i<N
Зауважте, що я описав алгоритм як послідовний алгоритм, але оскільки навчання дерев не залежить одне від одного, ви також можете робити це паралельно. Тепер для кроку прогнозування спочатку зробіть прогноз для кожного дерева (тобто , , ..., ) у лісі, а потім:T1T2TN
Якщо він використовується для регресійного завдання, сприймайте середнє значення прогнозів як остаточне передбачення випадкового лісу.
Якщо він використовується для завдання класифікації, використовуйте м'яку стратегію голосування : візьміть середнє значення ймовірностей, передбачених деревами для кожного класу, а потім оголосіть клас з найвищою середньою ймовірністю як остаточний прогноз випадкового лісу.
Далі, слід зазначити, що можна дресирувати дерева послідовно залежним чином, і саме це робить алгоритм підвищення дерев яних градієнтів , що є абсолютно різним методом від випадкових лісів.