Porównanie SHAP (Shapley Additive Explanation) i LIME (Local Interpretable Model-Agnostic Explanations)

20

Czytam o dwóch popularnych technikach interpretacji modeli post hoc: LIME i SHAP

Mam problem ze zrozumieniem kluczowej różnicy w tych dwóch technikach.

Aby zacytować Scott Lundberg , mózgiem shap:

Wartości SHAP pochodzą z zalet LIME w szacunkach lokalnych czarnej skrzynki, ale także z teoretycznymi gwarancjami spójności i lokalnej dokładności z teorii gier (atrybuty z innych metod, które zjednoczyliśmy)

Mam problem ze zrozumieniem, czym są te „ teoretyczne gwarancje spójności i lokalnej dokładności z teorii gier ”. Ponieważ SHAP został opracowany po LIME, zakładam, że wypełnia on pewne luki, których LIME nie rozwiązuje. Co to są?

Książka Christopha Molnara w rozdziale na temat Shapley Estimation stwierdza:

Różnica między prognozą a prognozą średnią jest sprawiedliwie podzielona między wartościami cech instancji - właściwością wydajności Shapleya. Ta właściwość odróżnia wartość Shapleya od innych metod, takich jak LIME. LIME nie gwarantuje idealnej dystrybucji efektów. Może sprawić, że Shapley będzie jedyną metodą dostarczenia pełnego wyjaśnienia

Czytając to, mam wrażenie, że SHAP nie jest lokalnym, ale glokalnym wyjaśnieniem punktu danych. Mogę się tutaj mylić i potrzebować wglądu w znaczenie tego powyższego cytatu. Podsumowując moje zapytanie: LIME tworzy lokalne wyjaśnienia. Czym różnią się wyjaśnienia SHAP od LIME?

użytkownik248884
źródło
2
Ładne pytanie (+1), spróbuję na nie odpowiedzieć, kiedy będę miał czas, ale oczywistą rzeczą jest, aby zauważyć, że LIME nie oferuje globalnie spójnego wyjaśnienia, podczas gdy SHAP to robi. SHAP zdecydowanie został opracowany przed LIME. SHAP opiera się w dużej mierze na pracach Strumbelja i Kononenki z lat 90. i wczesnych 10., a także na ekonomii przenośnych gier użyteczności publicznej (np. Lipovetsky i Conklin (2001)). Oprócz tego idzie także wiele pracy nad pomiarami analizy wrażliwości (np. Wskaźniki Sobola). Podstawowe pomysły SHAP były ogólnie dobrze znane przed NIPS 2017.
usεr11852 mówi: Przywróć Monic
2
(Aby wyjaśnić drugą część powyższego komentarza: nie sugeruję, że artykuł NIPS 2017 jest wynikiem plagiatu lub czegoś w tym rodzaju. Po prostu często widzę ludzi, którzy lekceważą wiele wcześniejszych prac nad i traktuje ostatni przekrój ewolucji organicznej pola wiedzy jako główny przełom metodologiczny. W tym konkretnym przypadku: teoria gier algorytmicznych istnieje od dziesięcioleci jako część sztucznej inteligencji, a teraz stała się pół- chłodna . )
usεr11852 mówi: Przywróć Monic
1
@ usεr11852 Oczekiwanie na odpowiedź. Przekaż swoje pomysły na ten temat.
user248884,
2
Nie mam jeszcze niezbędnego czasu; Napisałem około 400 słów, ale potrzebuje co najmniej 6-7 godzin pracy, ponieważ muszę ponownie przeczytać kilka artykułów i zawęzić tekst - wyjaśnienie SHAP bez nadmiernych uproszczeń jest nieco trudne (przynajmniej dla mnie). Prawdopodobnie uda mi się to przed połową grudnia ... :)
mówi usεr11852 Przywróć Monic
1
@ usεr11852 Pewnie. Będzie czekać :)
user248884,

Odpowiedzi:

8

LIME tworzy model zastępczy lokalnie wokół jednostki, której przewidywania chcesz zrozumieć. Zatem jest to z natury lokalne. Foremne wartości „rozkładają” ostateczną prognozę na wkład każdego atrybutu - to właśnie niektórzy rozumieją przez „spójny” (wartości sumują się z faktyczną prognozą prawdziwego modelu, nie jest to coś, co otrzymujesz z WAPNIA). Ale aby faktycznie uzyskać kształtne wartości, należy podjąć decyzję o tym, co należy zrobić / jak obsługiwać wartości atrybutów „pominiętych”, w ten sposób uzyskuje się wartości. W tej decyzji istnieje wybór, który może zmienić interpretację. Jeśli „pominę” atrybut, czy uśredniam wszystkie możliwości? Czy wybrać jakieś „podstawowe”?

Tak więc Shapely w sposób addytywny mówi ci, w jaki sposób uzyskałeś swój wynik, ale istnieje pewien wybór co do „punktu początkowego” (tj. Decyzji o pominiętych atrybutach).

LIME po prostu mówi w lokalnym znaczeniu, co jest najważniejszym atrybutem wokół punktu zainteresowania danymi.

Jeremiasz
źródło
Czy możesz również dodać, w jaki sposób każdy model ma swój wynik (np. Wynik shap) - Znalazłem te wyniki dość denerwujące, ponieważ nie są normalizowane i nie rozumiem, co oznaczają!
user4581,