Les classificateurs Naive Bayes sont un choix populaire pour les problèmes de classification. Il y a plusieurs raisons à cela, notamment:
- "Zeitgeist" - une notoriété généralisée après le succès des filtres anti-spam il y a une dizaine d'années
- Facile à écrire
- Le modèle de classificateur est rapide à construire
- Le modèle peut être modifié avec de nouvelles données d'apprentissage sans avoir à reconstruire le modèle
Cependant, ils sont «naïfs» - c'est-à-dire qu'ils supposent que les fonctionnalités sont indépendantes - cela contraste avec d'autres classificateurs tels que les classificateurs Maximum Entropy (dont le calcul est lent).
L'hypothèse d'indépendance ne peut généralement pas être supposée, et dans de nombreux cas (la plupart?), Y compris l'exemple du filtre anti-spam, elle est tout simplement fausse.
Alors, pourquoi le classificateur Naive Bayes fonctionne-t-il toujours très bien dans de telles applications, même lorsque les fonctionnalités ne sont pas indépendantes les unes des autres?