Випадкові ліси (RFs) - конкурентоспроможний метод моделювання / видобутку даних.
Модель РФ має один вихід - змінну виводу / прогнозування.
Наївним підходом до моделювання декількох виходів з радіочастотними сигналами було б побудова RF для кожної вихідної змінної. Таким чином, ми маємо N незалежних моделей, і там, де є кореляція між вихідними змінними, ми матимемо надлишкову / дублюючу структуру моделі. Дійсно, це може бути дуже марно. Також, як правило, більше змінних моделей передбачає більш надмірну модель (менше узагальнення). Не впевнений, чи це стосується тут, але це, мабуть, так.
В принципі, ми могли б мати РЧ з декількома виходами. Змінна прогнозування тепер є вектором (n-кортеж). Вузли рішення у кожному дереві рішення тепер розділяють набір цільових / прогнозуючих векторів на основі порогового вектора, я вважаю, що цей поріг вважається площиною в n-мірному просторі, і тому ми можемо визначити, яка сторона порогу вектор, кожен з цільових векторів включений.
Оптимальне значення прогнозування для кожної сторони розбиття рішення - це середнє значення (центроїд), обчислене для векторів з кожної сторони.
Пошук оптимальної точки розбиття при роботі з окремими змінними є тривіальним та обчислювально швидким / ефективним. Для n-кортежу ми не можемо знайти оптимального розщеплення (або принаймні це стає обчислювально нездійсненно при збільшенні N), але ми можемо знайти майже оптимальний розкол за допомогою методу типу Монте-Карло (або якогось гібриду Монте-Карло та місцевих обхід градієнта).
Це б насправді спрацювало? Тобто, чи було б просто відображення тренувальних пар без генералізації? Чи існує ця методика вже під іншою назвою?
Ви також можете розглянути, як це стосується нейронних мереж, таких як обмежені машини Больцмана (МБР) та мережі глибокої віри.