Comparaison entre SHAP (explication additive de Shapley) et LIME (explications agnostiques du modèle interprétable local)


20

Je lis environ deux techniques d'interprétabilité de modèles post hoc populaires: LIME et SHAP

J'ai du mal à comprendre la principale différence entre ces deux techniques.

Pour citer Scott Lundberg , le cerveau derrière SHAP:

Les valeurs SHAP viennent avec les avantages d'estimation locale de la boîte noire de LIME, mais aussi avec des garanties théoriques sur la cohérence et la précision locale de la théorie des jeux (attributs d'autres méthodes que nous avons unifiées)

J'ai du mal à comprendre ce que sont ces « garanties théoriques sur la cohérence et la précision locale de la théorie des jeux ». Puisque SHAP a été développé après LIME, je suppose qu'il comble certaines lacunes que LIME ne parvient pas à combler. Quels sont ces?

Le livre de Christoph Molnar dans un chapitre sur l'estimation de Shapley déclare:

La différence entre la prédiction et la prédiction moyenne est équitablement répartie entre les valeurs des caractéristiques de l'instance - la propriété d'efficacité shapley. Cette propriété définit la valeur Shapley indépendamment des autres méthodes comme LIME. LIME ne garantit pas une distribution parfaite des effets. Cela pourrait faire de la valeur Shapley la seule méthode pour fournir une explication complète

En lisant ceci, j'ai l'impression que SHAP n'est pas une explication locale mais glocale du point de données. Je peux me tromper ici et avoir besoin d'un aperçu de ce que signifie cette citation ci-dessus. Pour résumer ma demande: LIME produit des explications locales. En quoi les explications de SHAP sont-elles différentes de celles de LIME?


2
Belle question (+1), j'essaierai d'y répondre quand j'aurai le temps mais la chose évidente à noter est que LIME n'offre pas une explication cohérente à l'échelle mondiale alors que SHAP le fait. De plus, SHAP a définitivement été développé avant LIME. SHAP s'appuie fortement sur les travaux de Strumbelj & Kononenko des années 00 / début 10 ainsi que sur l'économie des jeux coopératifs utilitaires transférables (par exemple Lipovetsky & Conklin (2001)). En outre, de nombreux travaux sur les mesures d'analyse de sensibilité (par exemple les indices Sobol) vont également dans ce sens. Les idées de base de SHAP étaient généralement bien connues avant NIPS 2017.
usεr11852 dit Reinstate Monic

2
(Juste pour être clair en ce qui concerne la deuxième moitié de mon commentaire ci-dessus: je ne dis pas que le document NIPS 2017 est le produit du plagiat ou quoi que ce soit à distance. C'est juste que je vois souvent des gens négliger beaucoup de travaux antérieurs sur un et traiter un récent échantillon de l'évolution par ailleurs organique d'un domaine de connaissances comme une percée méthodologique majeure. Dans ce cas particulier: la théorie des jeux algorithmiques existe depuis des décennies dans le cadre de l'IA, elle est maintenant devenue semi- cool . )
usεr11852 dit Réintégrer Monic

1
@ usεr11852 En attente de votre réponse. Veuillez apporter vos idées à ce sujet.
user248884

2
Je n'ai pas encore tout le temps nécessaire; J'ai écrit environ 400 mots, mais cela nécessite au moins 6 à 7 heures de travail supplémentaires car je dois relire certains documents et resserrer mon texte - expliquer SHAP sans faire de simplifications excessives est un peu difficile (pour moi au moins). Je le ferai probablement avant la mi-décembre ... :)
usεr11852 dit Réintégrer Monic

1
@ usεr11852 Bien sûr. Attendra :)
user248884

Réponses:


8

LIME crée un modèle de substitution localement autour de l'unité dont vous souhaitez comprendre la prédiction. Elle est donc intrinsèquement locale. Les valeurs galbées `` décomposent '' la prédiction finale en contribution de chaque attribut - c'est ce que certains entendent par `` cohérent '' (les valeurs s'additionnent à la prédiction réelle du vrai modèle, ce n'est pas quelque chose que vous obtenez avec LIME). Mais pour obtenir réellement les valeurs galbées, il faut prendre une décision quant à ce qu'il faut faire / comment gérer les valeurs des attributs «laissés de côté», c'est ainsi que les valeurs sont obtenues. Dans cette décision, il y a un choix qui pourrait changer l'interprétation. Si je «laisse de côté» un attribut, est-ce que je fais la moyenne de toutes les possibilités? Choisissez-vous une «ligne de base»?

Donc, Shapely vous dit en fait, de manière additive, comment vous avez obtenu votre score, mais il y a un certain choix quant au «point de départ» (c'est-à-dire la décision concernant les attributs omis).

LIME vous indique simplement, au sens local, quel est l'attribut le plus important autour du point de données concerné.


Pouvez-vous également ajouter la façon dont chaque modèle fait son score (par exemple, le score de forme) - J'ai trouvé ces scores assez ennuyeux car ils ne sont pas normalisés et je ne comprends pas ce qu'ils signifient!
user4581
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.