Est-ce que ce qui suit est vrai?
biais faible = variance
élevée biais élevé = faible variance
Je comprends les biais élevés et faibles, mais en quoi la variance est-elle différente? Ou sont les synonymes ci-dessus?
Est-ce que ce qui suit est vrai?
biais faible = variance
élevée biais élevé = faible variance
Je comprends les biais élevés et faibles, mais en quoi la variance est-elle différente? Ou sont les synonymes ci-dessus?
Réponses:
Non. Vous pouvez avoir à la fois élevé ou faible en même temps. Voici un exemple illustratif. source de l'image et de l'article Je vous recommande également de lire l'article d'où provient cette image.
La raison pour laquelle vous avez une telle impression est que dans le "jeune âge" de l'apprentissage automatique, il existe un concept appelé compromis de variance de biais (comme @Kodiologist l'a mentionné, ce concept est toujours vrai et un concept fondamental des modèles de réglage aujourd'hui.)
Dans la récente conférence d'Andrew Ng sur le Deep Learning Coursera, il a mentionné que dans le cadre récent du Deep Learning (avec une énorme quantité de données), les gens parlent moins de compromis. Au lieu de cela, il existe des moyens de réduire uniquement la variance et de ne pas augmenter le biais (par exemple, augmenter la taille des données d'entraînement), comme vice versa.
La différence entre le biais et la variance est la même qu'entre l' exactitude et la précision :
La précision d'un système de mesure est à quel point il se rapproche de la valeur réelle (vraie) d'une quantité. (≈ biais)
La précision d'un système de mesure est le degré auquel des mesures répétées donnent les mêmes résultats. (≈ variance)