Ma réponse s'adresse à CART (les implémentations C 4.5 / C 5) bien que je ne pense pas qu'ils soient limités à cela. J'imagine que c'est ce que le PO a à l'esprit - c'est généralement ce que quelqu'un veut dire quand il dit "Arbre de décision".
Limites des arbres de décision :
Faible niveau de rendement
Par «performance», je ne parle pas de résolution, mais de vitesse d'exécution . La raison pour laquelle il est pauvre est que vous devez «redessiner l’arbre» chaque fois que vous souhaitez mettre à jour votre modèle CART - des données classifiées par un arbre déjà formé, que vous souhaitez ensuite ajouter à l’arbre (c’est-à-dire, utiliser point de données d'apprentissage) nécessite que vous commenciez à partir d'instances surentraînées ne puissent pas être ajoutées progressivement, comme c'est le cas pour la plupart des autres algorithmes d'apprentissage supervisé. La meilleure façon de le dire est peut-être que les arbres de décision ne peuvent pas être formés en mode en ligne, mais uniquement en mode de traitement par lots. Évidemment, vous ne remarquerez pas cette limitation si vous ne mettez pas à jour votre classificateur, mais je m'attendrais à ce que vous constatiez une baisse de résolution.
Ceci est significatif car pour les Perceptrons multicouches par exemple, une fois qu'il est formé, il peut commencer à classer les données; ces données peuvent également être utilisées pour «ajuster» le classifieur déjà formé. Cependant, avec les arbres de décision, vous devez vous reconvertir avec l'ensemble de données (les données d'origine utilisées lors de la formation et toutes les nouvelles instances).
Mauvaise résolution des données avec des relations complexes entre les variables
Les arbres de décision classifient, par étapes, l’évaluation d’un point de données de classe inconnue, un nœud à la fois, en commençant au nœud racine et se terminant par un nœud terminal. Et à chaque nœud, seules deux possibilités sont possibles (gauche à droite), il existe donc certaines relations variables que les arbres de décision ne peuvent tout simplement pas apprendre.
Pratiquement limité à la classification
Les arbres de décision fonctionnent mieux lorsqu'ils sont formés pour attribuer un point de données à une classe - de préférence l'une des rares classes possibles. Je ne pense pas avoir jamais réussi à utiliser un arbre de décision en mode de régression (c.-à-d. Une sortie continue, telle que le prix ou le revenu escompté à vie). Ce n'est pas une limitation formelle ou inhérente, mais pratique. La plupart du temps, les arbres de décision sont utilisés pour prédire des facteurs ou des résultats discrets.
Résolution médiocre avec variables d'espérance continue
Encore une fois, en principe, il est correct d’avoir des variables indépendantes telles que "temps de téléchargement" ou "nombre de jours depuis le dernier achat en ligne" - modifiez simplement votre critère de division en variance Expérience Les arbres de décision fonctionnent rarement bien dans ce cas. Les exceptions sont des cas tels que "l'âge de l'étudiant" qui semble continu, mais dans la pratique, la plage de valeurs est assez petite (en particulier si elles sont rapportées sous forme d'entiers).