Порівняння між SHAP (Shapley Additive Explanation) та LIME (Local Interpretable Model-Agnostic Explations)


20

Я читаю про дві популярні пост-спеціальні методи інтерпретації моделі: LIME та SHAP

У мене виникають проблеми з розумінням ключової різниці цих двох методик.

Щоб процитувати Скотт Lundberg , мізки позаду SHAP:

Значення SHAP поставляються з перевагами локальної оцінки чорного поля LIME, а також мають теоретичні гарантії послідовності та локальної точності від теорії ігор (атрибути інших методів, які ми уніфікували)

У мене виникають проблеми з розумінням того, що це " теоретичні гарантії послідовності та локальної точності від теорії ігор ". Оскільки SHAP був розроблений після LIME, я припускаю, що він заповнює деякі прогалини, які LIME не вдається усунути. Що це?

Книга Крістофа Молнара в главі про оцінку Шеплі говорить:

Різниця між прогнозуванням і середнім прогнозом справедливо розподіляється між значеннями ознак екземпляра - властивістю ефективності шаплі. Це властивість встановлює значення Shapley крім інших методів, таких як LIME. LIME не гарантує ідеального розподілу ефектів. Це може зробити значення Shapley єдиним методом для повного пояснення

Читаючи це, я розумію, що SHAP - це не локальне, а глобальне пояснення точки даних. Я можу помилитися тут і мені потрібно трохи зрозуміти, що означає ця вище цитата. Підсумовуючи моє запитання: LIME виробляє місцеві пояснення. Чим пояснення SHAP відрізняються від пояснень LIME?


2
Приємне запитання (+1), я спробую відповісти на нього, коли отримаю час, але очевидно, що потрібно помітити, це те, що LIME не пропонує глобально послідовного пояснення, поки це робить SHAP. Також SHAP, безумовно , був розроблений до LIME. SHAP значною мірою спирається на роботу Струмбеля та Кононенка з лат. 00-х / початку 10-х років, а також на роботах з економіки щодо передавальних кооперативних ігор (наприклад, Lipovetsky & Conklin (2001)). Крім того, велика робота з вимірювання аналізу чутливості (наприклад, індекси Соболя) також йде в цьому напрямку. Основні ідеї SHAP, як правило, були добре відомі до NIPS 2017.
usεr11852 повідомляє Відновити Моніку

2
(Просто для того, щоб бути зрозумілим щодо другої половини мого коментаря вище: я не припускаю, що папір NIPS 2017 є продуктом плагіату чи чогось віддаленого подібного. Просто я часто бачу людей, що нехтують великою кількістю попередньої роботи над поле і лікування в останній перетин інакше органічної еволюції галузі знань в якості основного методологічного прориву в даному конкретному випадку :. алгоритмічна теорія ігор була навколо в протягом десятиліть , як частина ІІ, тільки тепер він став підлогу прохолодно . )
usεr11852 повідомляє Відновити Моніку

1
@ usεr11852 Чекаю на вашу відповідь. Будь ласка, внесіть свої ідеї з цього приводу.
user248884

2
У вас ще немає всього необхідного часу; Я написав близько 400 слів, але для цього потрібно як мінімум ще 6-7 годин роботи, оскільки мені доведеться перечитати деякі документи і посилити текст - пояснення SHAP, не роблячи надмірних спрощень, є дещо складним (для мене щонайменше). Напевно, я
встигну

1
@ usεr11852 Звичайно. Буде чекати :)
user248884

Відповіді:


8

LIME створює сурогатну модель локально навколо підрозділу, який передбачення ви хочете зрозуміти. Таким чином, вона по своїй суті є місцевою. Складні значення "розкладають" остаточний прогноз на внесок кожного атрибута - це те, що деякі означають під "послідовним" (значення складаються з фактичного передбачення справжньої моделі, це не те, що ви отримуєте з LIME). Але щоб отримати фактично значущі значення, має бути прийняте певне рішення щодо того, що робити / як обробляти значення атрибутів "залишилися поза межами", саме так ці значення дійшли. У цьому рішенні є певний вибір, який може змінити тлумачення. Якщо я не залишаю атрибут, чи оцінюю я всі можливості? Вибираєте якусь "базову лінію"?

Тож Shapely насправді розповідає вам, як додаток, як ви отримали свою оцінку, але є певний вибір щодо "початкової точки" (тобто рішення про пропущені атрибути).

LIME просто повідомляє вам у місцевому розумінні, що є найважливішим атрибутом навколо точки, що цікавить.


Чи можете ви також додати, як кожна модель робить свій бал (наприклад, оцінка шаблону) - я вважаю, що ці результати дуже дратують, оскільки вони не нормалізуються, і я не розумію, що вони означають!
user4581
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.