Comment un classificateur d'ensemble fusionne-t-il les prédictions de ses classificateurs constituants? J'ai du mal à trouver une description claire. Dans certains exemples de code que j'ai trouvés, l'ensemble fait simplement la moyenne des prédictions, mais je ne vois pas comment cela pourrait rendre possible une "meilleure" précision globale.
Considérez le cas suivant. Un classificateur d'ensemble est composé de 10 classificateurs. Un classificateur a une précision de 100% du temps dans le sous-ensemble de données X et de 0% toutes les autres fois. Tous les autres classificateurs ont une précision de 0% dans le sous-ensemble de données X et de 100% toutes les autres fois.
En utilisant une formule de moyenne, où la précision du classificateur est ignorée, le classificateur d'ensemble aurait, au mieux, une précision de 50%. Est-ce correct ou manque-t-il quelque chose? Comment la prédiction moyenne de N classificateurs potentiellement désemparés peut-elle créer une meilleure prédiction qu'un classificateur unique expert dans un domaine spécifique?