Décomposition de la variance de biais


13

Dans la section 3.2 de Bishop's Pattern Recognition and Machine Learning , il discute de la décomposition biais-variance, déclarant que pour une fonction de perte au carré, la perte attendue peut être décomposée en un terme de biais au carré (qui décrit la distance entre les prévisions moyennes et la vraie modèle), un terme de variance (qui décrit la propagation des prédictions autour de la moyenne), et un terme de bruit (qui donne le bruit intrinsèque des données).

  1. La décomposition biais-variance peut-elle être effectuée avec des fonctions de perte autres que la perte au carré?
  2. Pour un ensemble de données de modèle donné, y a-t-il plus d'un modèle dont la perte attendue est le minimum sur tous les modèles, et si oui, cela signifie-t-il qu'il pourrait y avoir différentes combinaisons de biais et de variance qui produisent la même perte minimale attendue?
  3. Si un modèle implique une régularisation, existe-t-il une relation mathématique entre le biais, la variance et le coefficient de régularisation λ ?
  4. Comment calculer le biais si vous ne connaissez pas le vrai modèle?
  5. Y a-t-il des situations dans lesquelles il est plus logique de minimiser le biais ou la variance plutôt que la perte attendue (la somme des biais et de la variance au carré)?

Réponses:


3

... la perte [d'erreur quadratique] attendue peut être décomposée en un terme de biais au carré (qui décrit à quelle distance les prévisions moyennes sont du vrai modèle), un terme de variance (qui décrit la propagation des prédictions autour de la moyenne), et un terme de bruit (qui donne le bruit intrinsèque des données).

En regardant la décomposition de la perte d'erreur au carré Je ne vois que deux termes: un pour le biais et un autre pour la variance de l'estimateur ou du prédicteur, δ ( X 1 : n ) . Il n'y a pas de terme de bruit supplémentaire dans la perte attendue. Comme il se doit puisque la variabilité est la variabilité de δ ( X 1 : n ) , pas de l'échantillon lui-même.

Eθ[(θδ(X1:n))2]=(θEθ[δ(X1:n)])2+Eθ[(Eθ[δ(X1:n)]δ(X1:n))2]
δ(X1:n)δ(X1:n)
  1. La décomposition biais-variance peut-elle être effectuée avec des fonctions de perte autres que la perte au carré?

Mon interprétation de la décomposition du biais + variance au carré [et de la façon dont je l'enseigne] est que c'est l'équivalent statistique du théorème de Pythagore, à savoir que la distance au carré entre un estimateur et un point dans un certain ensemble est la somme de la distance au carré entre un estimateur et l'ensemble, plus la distance au carré entre la projection orthogonale sur l'ensemble et le point dans l'ensemble. Toute perte basée sur une distance avec un nPour un ensemble de données de modèle donné, existe-t-il plus d'un modèle dont la perte attendue est le minimum sur tous les modèles, et si tel est le cas, cela signifie-t-il qu'il pourrait y avoir différentes combinaisons de biais et de variance même perte minimale attendue? otion de projection orthogonale, c'est-à-dire qu'un produit interne, c'est-à-dire essentiellement des espaces de Hilbert, satisfait cette décomposition.

  1. Pour un ensemble de données de modèle donné, y a-t-il plus d'un modèle dont la perte attendue est le minimum sur tous les modèles, et si oui, cela signifie-t-il qu'il pourrait y avoir différentes combinaisons de biais et de variance qui produisent la même perte minimale attendue?

La question n'est pas claire: si par minimum sur les modèles, vous voulez dire alors il existe de nombreux exemples de modèles statistiques et de décisions associées avec une perte attendue constante (ou un risque ). Prenons par exemple le MLE d'une moyenne normale.

minθEθ[(θδ(X1:n))2]
  1. Comment calculer le biais si vous ne connaissez pas le vrai modèle?

Dans un sens générique, le biais est la distance entre le vrai modèle et le modèle le plus proche au sein de la famille supposée de distributions. Si le vrai modèle est inconnu, le biais peut être vérifié par bootstrap.

  1. Y a-t-il des situations dans lesquelles il est plus logique de minimiser le biais ou la variance plutôt que la perte attendue (la somme des biais et de la variance au carré)?

(θEθ[δ(X1:n)])2+α[(Eθ[δ(X1:n)]δ(X1:n))2]0<α
αα

fY=f(X)+ϵϵσϵf(X)E[f^(X)]E[(Yf(X))2|X=x]σϵ2+Bias2f^(x)+Varf^(x)

f^ϵ

Hmm, vous avez bien sûr raison. Mais je pense que le problème est un artefact de ma dérivation bâclée. Consultez la page 223 de l' ESLII
Miguel

ϵf^
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.