Ich lese über zwei populäre Post-Hoc-Interpretierbarkeitstechniken: LIME und SHAP
Ich habe Probleme, den Hauptunterschied zwischen diesen beiden Techniken zu verstehen.
Um Scott Lundberg , den Kopf hinter SHAP, zu zitieren :
SHAP-Werte bieten die Vorteile der lokalen Black-Box-Schätzung von LIME, aber auch theoretische Garantien für Konsistenz und lokale Genauigkeit aus der Spieltheorie (Attribute aus anderen von uns vereinheitlichten Methoden).
Ich habe einige Probleme zu verstehen, was diese " theoretische Garantie für Konsistenz und lokale Genauigkeit von der Spieltheorie " ist. Da SHAP nach LIME entwickelt wurde, gehe ich davon aus, dass es einige Lücken füllt, die LIME nicht schließt. Was sind diese?
Christoph Molnars Buch in einem Kapitel über Shapley Estimation lautet:
Der Unterschied zwischen der Vorhersage und der durchschnittlichen Vorhersage ist gerecht auf die Merkmalswerte der Instanz verteilt - die Shapley-Effizienz-Eigenschaft. Diese Eigenschaft unterscheidet den Shapley-Wert von anderen Methoden wie LIME. LIME garantiert nicht die perfekte Verteilung der Effekte. Dies könnte den Shapley-Wert zur einzigen Methode machen, die eine vollständige Erklärung liefert
Wenn ich das hier lese, habe ich das Gefühl, dass SHAP keine lokale, sondern eine globale Erklärung des Datenpunkts ist. Ich könnte mich hier irren und brauche einen Einblick in die Bedeutung dieses obigen Zitats. Um meine Frage zusammenzufassen: LIME produziert lokale Erklärungen. Inwiefern unterscheiden sich die Erklärungen von SHAP von denen von LIME?
quelle
Antworten:
LIME erstellt ein Ersatzmodell lokal um die Einheit, deren Vorhersage Sie verstehen möchten. Somit ist es von Natur aus lokal. Formschöne Werte zerlegen die endgültige Vorhersage in den Beitrag jedes Attributs - dies ist das, was einige mit "konsistent" meinen (die Werte addieren sich zur tatsächlichen Vorhersage des wahren Modells, das ist etwas, was Sie mit LIME nicht bekommen). Aber um tatsächlich die formschönen Werte zu erhalten, muss eine Entscheidung getroffen werden, was zu tun ist / wie mit den Werten der "ausgelassenen" Attribute umgegangen werden soll. So kommen die Werte zustande. In dieser Entscheidung gibt es eine Auswahl, die die Interpretation ändern könnte. Wenn ich ein Attribut weglasse, mittle ich dann alle Möglichkeiten? Wählen Sie eine Basislinie?
Shapely sagt Ihnen also additiv, wie Sie zu Ihrer Punktzahl gekommen sind, aber es gibt eine gewisse Auswahl hinsichtlich des „Startpunkts“ (dh der Entscheidung über ausgelassene Attribute).
LIME sagt Ihnen lediglich lokal, was das wichtigste Attribut rund um den Datenpunkt von Interesse ist.
quelle