J'ai un peu de confusion. Je lisais cet article où il expliquait que la technique d'ensachage réduit considérablement la variance et n'augmente que légèrement le biais. Je ne l'ai pas compris comment cela réduit la variance. Je sais ce qu'est la variance et le biais. Le biais est l'incapacité du modèle à apprendre les données. La variance est quelque chose de similaire au sur-ajustement. Je ne comprends tout simplement pas comment l'ensachage réduit la variance.