Ich lese über zwei populäre Post-Hoc-Interpretierbarkeitstechniken: LIME und SHAP
Ich habe Probleme, den Hauptunterschied zwischen diesen beiden Techniken zu verstehen.
Um Scott Lundberg , den Kopf hinter SHAP, zu zitieren :
SHAP-Werte bieten die Vorteile der lokalen Black-Box-Schätzung von LIME, aber auch theoretische Garantien für Konsistenz und lokale Genauigkeit aus der Spieltheorie (Attribute aus anderen von uns vereinheitlichten Methoden).
Ich habe einige Probleme zu verstehen, was diese " theoretische Garantie für Konsistenz und lokale Genauigkeit von der Spieltheorie " ist. Da SHAP nach LIME entwickelt wurde, gehe ich davon aus, dass es einige Lücken füllt, die LIME nicht schließt. Was sind diese?
Christoph Molnars Buch in einem Kapitel über Shapley Estimation lautet:
Der Unterschied zwischen der Vorhersage und der durchschnittlichen Vorhersage ist gerecht auf die Merkmalswerte der Instanz verteilt - die Shapley-Effizienz-Eigenschaft. Diese Eigenschaft unterscheidet den Shapley-Wert von anderen Methoden wie LIME. LIME garantiert nicht die perfekte Verteilung der Effekte. Dies könnte den Shapley-Wert zur einzigen Methode machen, die eine vollständige Erklärung liefert
Wenn ich das hier lese, habe ich das Gefühl, dass SHAP keine lokale, sondern eine globale Erklärung des Datenpunkts ist. Ich könnte mich hier irren und brauche einen Einblick in die Bedeutung dieses obigen Zitats. Um meine Frage zusammenzufassen: LIME produziert lokale Erklärungen. Inwiefern unterscheiden sich die Erklärungen von SHAP von denen von LIME?