Чи є дійсно простий опис практичних відмінностей між цими двома методиками?
Обидва, здається, використовуються для наглядового навчання (хоча правила асоціації також можуть поводитися без нагляду).
І те й інше можна використовувати для прогнозування
Найближче, що я знайшов до «хорошого» опису, - це « Підручник із Статсофта» . Кажуть, що правила Асоціації використовуються для:
... виявляти зв'язки або асоціації між конкретними значеннями категоричних змінних у великих наборах даних.
Хоча класифікатори дерева рішень описуються як такі, що використовуються для:
... передбачити приналежність випадків або об'єктів до класів категорично залежної змінної від їх вимірювань на одній або декількох змінних предиктора.
Однак, під час R Data Mining вони наводять приклад Правил асоціації, які використовуються з цільовим полем .
Таким чином, обидва можуть бути використані для прогнозування членства в групі, чи є ключовою відмінністю того, що дерева рішень можуть обробляти не категоричні вхідні дані, тоді як правила асоціації не можуть? Або є щось більш фундаментальне? Один із сайтів ( sqlserverdatamining.com ) говорить про те, що ключова різниця:
Правила дерев рішень засновані на отриманні інформації, тоді як правила асоціації - на популярності та / або впевненості.
Отже (можливо, відповідаючи на моє власне запитання) чи означає це, що правила асоціації оцінюються виключно на те, як часто вони з’являються в наборі даних (і як часто вони є «справжніми»), в той час як дерева рішень насправді намагаються мінімізувати відхилення?
Якщо хтось знає хороший опис, він би готовий вказати мені на це, це було б чудово.