Vergleich zwischen SHAP (Shapley Additive Explanation) und LIME (Local Interpretable Model-Agnostic Explanations)


20

Ich lese über zwei populäre Post-Hoc-Interpretierbarkeitstechniken: LIME und SHAP

Ich habe Probleme, den Hauptunterschied zwischen diesen beiden Techniken zu verstehen.

Um Scott Lundberg , den Kopf hinter SHAP, zu zitieren :

SHAP-Werte bieten die Vorteile der lokalen Black-Box-Schätzung von LIME, aber auch theoretische Garantien für Konsistenz und lokale Genauigkeit aus der Spieltheorie (Attribute aus anderen von uns vereinheitlichten Methoden).

Ich habe einige Probleme zu verstehen, was diese " theoretische Garantie für Konsistenz und lokale Genauigkeit von der Spieltheorie " ist. Da SHAP nach LIME entwickelt wurde, gehe ich davon aus, dass es einige Lücken füllt, die LIME nicht schließt. Was sind diese?

Christoph Molnars Buch in einem Kapitel über Shapley Estimation lautet:

Der Unterschied zwischen der Vorhersage und der durchschnittlichen Vorhersage ist gerecht auf die Merkmalswerte der Instanz verteilt - die Shapley-Effizienz-Eigenschaft. Diese Eigenschaft unterscheidet den Shapley-Wert von anderen Methoden wie LIME. LIME garantiert nicht die perfekte Verteilung der Effekte. Dies könnte den Shapley-Wert zur einzigen Methode machen, die eine vollständige Erklärung liefert

Wenn ich das hier lese, habe ich das Gefühl, dass SHAP keine lokale, sondern eine globale Erklärung des Datenpunkts ist. Ich könnte mich hier irren und brauche einen Einblick in die Bedeutung dieses obigen Zitats. Um meine Frage zusammenzufassen: LIME produziert lokale Erklärungen. Inwiefern unterscheiden sich die Erklärungen von SHAP von denen von LIME?


2
Gute Frage (+1), ich werde versuchen, sie zu beantworten, wenn ich Zeit habe, aber es ist offensichtlich, dass LIME keine global konsistente Erklärung bietet, während SHAP dies tut. Auch SHAP wurde definitiv vor LIME entwickelt. SHAP baut stark auf der Arbeit von Strumbelj & Kononenko aus den letzten zehn Jahren auf und beschäftigt sich mit der Wirtschaftlichkeit übertragbarer Utility-Kooperationsspiele (z. B. Lipovetsky & Conklin (2001)). Darüber hinaus wird auch viel Arbeit in Bezug auf Sensitivitätsanalysen (z. B. Sobol-Indizes) geleistet. Die wichtigsten SHAP-Ideen waren vor NIPS 2017 allgemein bekannt.
usεr11852 sagt Reinstate Monic,

2
(Um es in Bezug auf die zweite Hälfte meines obigen Kommentars zu verdeutlichen: Ich behaupte nicht, dass das NIPS 2017-Papier das Produkt von Plagiaten oder Ähnlichem ist. Es ist nur so, dass ich oft Leute sehe, die eine Menge vorheriger Arbeiten an einer Feld und einen aktuellen Querschnitts der ansonsten organischen Entwicklung eines Feld des Wissens als wesentlicher methodischer Durchbruch In diesem speziellen Fall der Behandlung. algorithmische Spieltheorie seit Jahrzehnten als Teil AI gibt es schon, es wurde gerade jetzt halb kühl . )
usεr11852 sagt Reinstate Monic

1
@ usεr11852 Warten auf Ihre Antwort. Bitte tragen Sie dazu Ihre Ideen bei.
user248884

2
Ich habe noch nicht die nötige Zeit. Ich habe ungefähr 400 Wörter geschrieben, aber es dauert noch mindestens 6-7 Stunden, da ich einige Papiere noch einmal lesen und meinen Text straffen muss - SHAP zu erklären, ohne zu viele Vereinfachungen vorzunehmen, ist (zumindest für mich) eine Herausforderung. Wahrscheinlich werde ich es bis Mitte Dezember schaffen ... :)
usεr11852 sagt Reinstate Monic

1
@ usεr11852 Sicher. Wird erwartet :)
user248884

Antworten:


8

LIME erstellt ein Ersatzmodell lokal um die Einheit, deren Vorhersage Sie verstehen möchten. Somit ist es von Natur aus lokal. Formschöne Werte zerlegen die endgültige Vorhersage in den Beitrag jedes Attributs - dies ist das, was einige mit "konsistent" meinen (die Werte addieren sich zur tatsächlichen Vorhersage des wahren Modells, das ist etwas, was Sie mit LIME nicht bekommen). Aber um tatsächlich die formschönen Werte zu erhalten, muss eine Entscheidung getroffen werden, was zu tun ist / wie mit den Werten der "ausgelassenen" Attribute umgegangen werden soll. So kommen die Werte zustande. In dieser Entscheidung gibt es eine Auswahl, die die Interpretation ändern könnte. Wenn ich ein Attribut weglasse, mittle ich dann alle Möglichkeiten? Wählen Sie eine Basislinie?

Shapely sagt Ihnen also additiv, wie Sie zu Ihrer Punktzahl gekommen sind, aber es gibt eine gewisse Auswahl hinsichtlich des „Startpunkts“ (dh der Entscheidung über ausgelassene Attribute).

LIME sagt Ihnen lediglich lokal, was das wichtigste Attribut rund um den Datenpunkt von Interesse ist.


Können Sie auch hinzufügen, wie jedes Modell seine Punktzahl erzielt (z. B. Shap Score)? Ich fand diese Punkte ziemlich ärgerlich, da sie nicht normalisiert werden und ich nicht verstehe, was sie bedeuten!
User4581
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.