Як алгоритми навчання дерев рішень поводяться з відсутніми значеннями (під кришкою)


21

Назвіть методи, якими алгоритми навчання дерев рішень використовують для боротьби з відсутніми значеннями.

Чи просто вони заповнюють слот, використовуючи значення, яке називається відсутнім?

Спасибі.

Відповіді:


24

Існує кілька методів, які використовуються різними деревами рішень. Просто ігнорування відсутніх значень (наприклад, ID3 та інших старих алгоритмів) або трактування пропущених значень як іншої категорії (у випадку номінальної функції) не є реальною обробкою пропущених значень. Однак ці підходи використовувались на ранніх стадіях розробки дерева рішень.

Реальні підходи до обробки відсутніх даних не використовують точку даних з пропущеними значеннями при оцінці розбиття. Однак, коли дочірні вузли створюються та навчаються, ці екземпляри розподіляються якимось чином.

Мені відомо про наступні підходи до розподілу відсутніх екземплярів значення серед дочірніх вузлів:

  • все йде до вузла, який вже має найбільшу кількість примірників (CART, це не основне правило)
  • розповсюджуйте на всіх дітей, але зі зменшеними вагами, пропорційними кількості екземплярів від кожного дочірнього вузла (C45 та інші)
  • розподілити випадковим чином лише один єдиний дочірній вузол, зрештою, відповідно до категоричного розподілу (я бачив, що в різних реалізаціях C45 і CART для більш швидкого виконання часу)
  • будувати, сортувати та використовувати сурогати для розподілу екземплярів до дочірнього вузла, де сурогати - це вхідні функції, що найбільше нагадує те, як тестова функція надсилає екземпляри даних до лівого чи правого дочірнього вузла (CART, якщо це не вдається, застосовується правило більшості)
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.