1) Je dirais que les arbres de décision ne sont pas aussi interprétables que les gens le prétendent. Ils semblent interprétables, car chaque nœud est une décision binaire simple. Le problème est que lorsque vous descendez dans l'arborescence, chaque nœud est conditionnel à chaque nœud au-dessus. Si votre arbre n'a que quatre ou cinq niveaux de profondeur, il n'est toujours pas trop difficile de convertir le chemin d'un nœud terminal (quatre ou cinq divisions) en quelque chose d'interprétable (par exemple, «ce nœud reflète les clients à long terme qui sont des hommes à revenu élevé avec plusieurs comptes). "), mais il est difficile de garder une trace de plusieurs nœuds terminaux.
Si tout ce que vous avez à faire est de convaincre un client que votre modèle est interprétable ("regardez, chaque cercle ici a une simple décision oui / non, facile à comprendre, non?") Alors je garderais les arbres de décision dans votre liste . Si vous voulez une interprétabilité exploitable, je dirais qu'ils pourraient ne pas faire la coupe.
2) Un autre problème consiste à clarifier ce que vous entendez par «interprétabilité des résultats». J'ai rencontré l'interprétabilité dans quatre contextes:
Le client pouvant comprendre la méthodologie. (Pas ce que vous demandez.) Une forêt aléatoire est assez facilement explicable par analogie, et la plupart des clients se sentent à l'aise avec elle une fois qu'elle est expliquée simplement.
Expliquer comment la méthodologie correspond à un modèle. (J'ai eu un client qui a insisté pour que j'explique comment un arbre de décision est adapté car ils pensaient que cela les aiderait à comprendre comment utiliser les résultats de manière plus intelligente. Après avoir fait un très bon résumé, avec beaucoup de beaux diagrammes, ils ont abandonné le sujet. Ce n'est pas du tout utile pour interpréter / comprendre.) Encore une fois, je crois que ce n'est pas ce que vous demandez.
Une fois qu'un modèle est ajusté, interpréter ce que le modèle «croit» ou «dit» au sujet des prédicteurs. Voici où un arbre de décision semble interprétable, mais est beaucoup plus complexe que les premières impressions. La régression logistique est ici assez simple.
Lorsqu'un point de données particulier est classé, expliquant pourquoi cette décision a été prise. Pourquoi votre régression logistique indique-t-elle que le risque de fraude est de 80%? Pourquoi votre arbre de décision indique-t-il qu'il est à faible risque? Si le client est satisfait de l'impression des nœuds de décision menant au nœud terminal, cela est facile pour un arbre de décision. Si «pourquoi» doit être résumé en termes humains («cette personne est considérée comme à faible risque car c'est un client masculin à long terme qui a des revenus élevés et des comptes multiples avec notre entreprise»), c'est beaucoup plus difficile.
Donc, à un niveau d'interprétabilité ou d'explicabilité (# 1 avec un peu # 4, ci-dessus), K-Nearest Neighbour est facile: "ce client a été jugé à haut risque car 8 clients sur 10 qui ont été précédemment évalués et qui étaient les plus similaires à eux en termes de X, Y et Z, ont été jugés à haut risque. " Au niveau 4, actionnable et complet, ce n'est pas si interprétable. (J'ai pensé à leur présenter les 8 autres clients, mais cela nécessiterait qu'ils explorent ces clients pour comprendre manuellement ce que ces clients ont en commun, et donc ce que le client évalué a en commun avec eux.)
J'ai lu récemment quelques articles sur l'utilisation de méthodes de type analyse de sensibilité pour essayer de trouver des explications automatisées de type # 4. Mais je n'en ai pas sous la main. Peut-être que quelqu'un peut jeter des liens dans les commentaires?