Dans les arbres de décision, nous pouvons comprendre la sortie de l'arborescence et nous pouvons également visualiser la façon dont l'arbre de décision prend des décisions. Les arbres de décision sont donc explicables (leur sortie peut être expliquée facilement.)
Avons-nous une explicabilité dans les réseaux neuronaux comme avec les arbres de décision?