Я думаю, що в оригінальному документі вони пропонують використовувати ), але в будь-якому випадку ідея така:log2(N+1
Кількість випадково вибраних ознак може впливати на помилку узагальнення двома способами: вибір багатьох особливостей збільшує міцність окремих дерев, тоді як зменшення кількості ознак призводить до зниження кореляції серед дерев, що збільшує міцність лісу в цілому.
Цікаво, що автори випадкових лісів (pdf) знаходять емпіричну різницю між класифікацією та регресією:
Цікавою відмінністю між регресією та класифікацією є те, що кореляція зростає досить повільно у міру збільшення кількості використовуваних ознак.
N/3N−−√
N−−√logN
Діапазон між проміжками зазвичай великий. У цьому діапазоні зі збільшенням кількості ознак кореляція збільшується, але PE * (дерево) компенсується зменшенням.
(PE * - помилка узагальнення)
Як кажуть у елементах статистичного навчання:
На практиці найкращі значення цих параметрів залежатимуть від проблеми, і їх слід розглядати як параметри настройки.
Одне, від чого може залежати ваша проблема, - це кількість категоричних змінних. Якщо у вас є багато категоричних змінних, кодованих як фіктивні змінні, зазвичай має сенс збільшувати параметр. Знову з статті "Випадкові ліси":
int(log2M+1)