Czytam o dwóch popularnych technikach interpretacji modeli post hoc: LIME i SHAP
Mam problem ze zrozumieniem kluczowej różnicy w tych dwóch technikach.
Aby zacytować Scott Lundberg , mózgiem shap:
Wartości SHAP pochodzą z zalet LIME w szacunkach lokalnych czarnej skrzynki, ale także z teoretycznymi gwarancjami spójności i lokalnej dokładności z teorii gier (atrybuty z innych metod, które zjednoczyliśmy)
Mam problem ze zrozumieniem, czym są te „ teoretyczne gwarancje spójności i lokalnej dokładności z teorii gier ”. Ponieważ SHAP został opracowany po LIME, zakładam, że wypełnia on pewne luki, których LIME nie rozwiązuje. Co to są?
Książka Christopha Molnara w rozdziale na temat Shapley Estimation stwierdza:
Różnica między prognozą a prognozą średnią jest sprawiedliwie podzielona między wartościami cech instancji - właściwością wydajności Shapleya. Ta właściwość odróżnia wartość Shapleya od innych metod, takich jak LIME. LIME nie gwarantuje idealnej dystrybucji efektów. Może sprawić, że Shapley będzie jedyną metodą dostarczenia pełnego wyjaśnienia
Czytając to, mam wrażenie, że SHAP nie jest lokalnym, ale glokalnym wyjaśnieniem punktu danych. Mogę się tutaj mylić i potrzebować wglądu w znaczenie tego powyższego cytatu. Podsumowując moje zapytanie: LIME tworzy lokalne wyjaśnienia. Czym różnią się wyjaśnienia SHAP od LIME?
źródło
Odpowiedzi:
LIME tworzy model zastępczy lokalnie wokół jednostki, której przewidywania chcesz zrozumieć. Zatem jest to z natury lokalne. Foremne wartości „rozkładają” ostateczną prognozę na wkład każdego atrybutu - to właśnie niektórzy rozumieją przez „spójny” (wartości sumują się z faktyczną prognozą prawdziwego modelu, nie jest to coś, co otrzymujesz z WAPNIA). Ale aby faktycznie uzyskać kształtne wartości, należy podjąć decyzję o tym, co należy zrobić / jak obsługiwać wartości atrybutów „pominiętych”, w ten sposób uzyskuje się wartości. W tej decyzji istnieje wybór, który może zmienić interpretację. Jeśli „pominę” atrybut, czy uśredniam wszystkie możliwości? Czy wybrać jakieś „podstawowe”?
Tak więc Shapely w sposób addytywny mówi ci, w jaki sposób uzyskałeś swój wynik, ale istnieje pewien wybór co do „punktu początkowego” (tj. Decyzji o pominiętych atrybutach).
LIME po prostu mówi w lokalnym znaczeniu, co jest najważniejszym atrybutem wokół punktu zainteresowania danymi.
źródło