Je construis des modèles avec des données catégoriques depuis un certain temps et lorsque, dans cette situation, je par défaut utilise par défaut la fonction LabelEncoder de scikit-learn pour transformer ces données avant de créer un modèle.
Je comprends la différence entre OHE
, LabelEncoder
et DictVectorizor
en termes de ce qu'ils font pour les données, mais ce n'est pas clair pour moi est quand vous pouvez choisir d'employer une technique sur une autre.
Existe-t-il certains algorithmes ou situations dans lesquels l’un présente des avantages / inconvénients par rapport aux autres?