Je lis environ deux techniques d'interprétabilité de modèles post hoc populaires: LIME et SHAP
J'ai du mal à comprendre la principale différence entre ces deux techniques.
Pour citer Scott Lundberg , le cerveau derrière SHAP:
Les valeurs SHAP viennent avec les avantages d'estimation locale de la boîte noire de LIME, mais aussi avec des garanties théoriques sur la cohérence et la précision locale de la théorie des jeux (attributs d'autres méthodes que nous avons unifiées)
J'ai du mal à comprendre ce que sont ces « garanties théoriques sur la cohérence et la précision locale de la théorie des jeux ». Puisque SHAP a été développé après LIME, je suppose qu'il comble certaines lacunes que LIME ne parvient pas à combler. Quels sont ces?
Le livre de Christoph Molnar dans un chapitre sur l'estimation de Shapley déclare:
La différence entre la prédiction et la prédiction moyenne est équitablement répartie entre les valeurs des caractéristiques de l'instance - la propriété d'efficacité shapley. Cette propriété définit la valeur Shapley indépendamment des autres méthodes comme LIME. LIME ne garantit pas une distribution parfaite des effets. Cela pourrait faire de la valeur Shapley la seule méthode pour fournir une explication complète
En lisant ceci, j'ai l'impression que SHAP n'est pas une explication locale mais glocale du point de données. Je peux me tromper ici et avoir besoin d'un aperçu de ce que signifie cette citation ci-dessus. Pour résumer ma demande: LIME produit des explications locales. En quoi les explications de SHAP sont-elles différentes de celles de LIME?