Я читаю про дві популярні пост-спеціальні методи інтерпретації моделі: LIME та SHAP
У мене виникають проблеми з розумінням ключової різниці цих двох методик.
Щоб процитувати Скотт Lundberg , мізки позаду SHAP:
Значення SHAP поставляються з перевагами локальної оцінки чорного поля LIME, а також мають теоретичні гарантії послідовності та локальної точності від теорії ігор (атрибути інших методів, які ми уніфікували)
У мене виникають проблеми з розумінням того, що це " теоретичні гарантії послідовності та локальної точності від теорії ігор ". Оскільки SHAP був розроблений після LIME, я припускаю, що він заповнює деякі прогалини, які LIME не вдається усунути. Що це?
Книга Крістофа Молнара в главі про оцінку Шеплі говорить:
Різниця між прогнозуванням і середнім прогнозом справедливо розподіляється між значеннями ознак екземпляра - властивістю ефективності шаплі. Це властивість встановлює значення Shapley крім інших методів, таких як LIME. LIME не гарантує ідеального розподілу ефектів. Це може зробити значення Shapley єдиним методом для повного пояснення
Читаючи це, я розумію, що SHAP - це не локальне, а глобальне пояснення точки даних. Я можу помилитися тут і мені потрібно трохи зрозуміти, що означає ця вище цитата. Підсумовуючи моє запитання: LIME виробляє місцеві пояснення. Чим пояснення SHAP відрізняються від пояснень LIME?