Existe-t-il une description très simple des différences pratiques entre ces deux techniques?
Les deux semblent être utilisés pour l'apprentissage supervisé (bien que les règles d'association puissent également gérer sans supervision).
Les deux peuvent être utilisés pour la prédiction
Le plus proche que j'ai trouvé à une «bonne» description est du manuel Statsoft . Ils disent que les règles d'association sont utilisées pour:
... détecter des relations ou des associations entre des valeurs spécifiques de variables catégorielles dans de grands ensembles de données.
Alors que les classificateurs Decision Tree sont décrits comme étant utilisés pour:
... prédire l'appartenance de cas ou d'objets aux classes d'une variable dépendante catégorielle à partir de leurs mesures sur une ou plusieurs variables prédictives.
Cependant, chez R Data Mining, ils donnent un exemple de règles d'association utilisées avec un champ cible .
Donc, les deux peuvent être utilisés pour prédire l'appartenance à un groupe, est-ce la principale différence que les arbres de décision peuvent gérer les données d'entrée non catégoriques alors que les règles d'association ne le peuvent pas? Ou y a-t-il quelque chose de plus fondamental? Un site ( sqlserverdatamining.com ) dit que la principale différence est:
Les règles des arbres de décision sont basées sur le gain d'informations tandis que les règles d'association sont basées sur la popularité et / ou la confiance.
Donc (peut-être pour répondre à ma propre question) cela signifie-t-il que les règles d'association sont évaluées uniquement sur la fréquence à laquelle elles apparaissent dans l'ensemble de données (et à quelle fréquence elles sont «vraies») tandis que les arbres de décision tentent en fait de minimiser la variance?
Si quelqu'un connaît une bonne description, il serait prêt à me diriger vers ce qui serait formidable.