Перший можна "інтерпретувати" так: якщо в вашій поточній моделі важливий предиктор, то присвоєння інших значень для цього прогноктора випадковим чином, але "реалістично" (тобто: переведення значень цього прогноктора на ваш набір даних) має мати негативний вплив щодо прогнозування, тобто: використання тієї самої моделі для прогнозування даних, що є однаковими, крім однієї змінної, повинно давати гірші прогнози.
Отже, ви приймаєте прогностичний захід (MSE) з оригінальним набором даних, а потім із набором даних "перестановки", і ви якось порівнюєте їх. Один із способів, тим більше, що ми очікуємо, що оригінальний MSE завжди буде меншим, різницю можна прийняти. Нарешті, для порівняння значень, порівняних із змінними, вони масштабуються.
Для другого: при кожному розщепленні ви можете підрахувати, наскільки цей розкол зменшує домішки вузлів (для дерев регресії, дійсно, різниці між RSS до і після розбиття). Це підсумовується для всіх розділень для цієї змінної, для всіх дерев.
Примітка: добре прочитане - Елементи статистичного навчання Хасті, Тібшірані та Фрідмана ...
?importance
? Там є пояснення того, що означають обидва заходи ...