L'impartialité n'est pas nécessairement particulièrement importante en soi.
Mis à part un ensemble très limité de circonstances, la plupart des estimateurs utiles sont biaisés, mais ils sont obtenus.
Si deux estimateurs ont la même variance, on peut facilement monter un argument pour préférer un biais à un biais, mais c'est une situation inhabituelle (c'est-à-dire que vous pouvez raisonnablement préférer le biais, ceteris paribus - mais ces embêtants ceteris ne sont presque jamais paribus ).
Plus généralement, si vous voulez une impartialité, vous ajouterez une certaine variance pour l'obtenir, et la question serait alors pourquoi feriez-vous cela ?
Le biais est la mesure dans laquelle la valeur attendue de mon estimateur sera trop élevée en moyenne (avec un biais négatif indiquant trop faible).
Lorsque je considère un petit estimateur d'échantillon, je m'en fiche vraiment. Je suis généralement plus intéressé à savoir dans quelle mesure mon estimateur aura tort dans ce cas - ma distance typique de la droite ... quelque chose comme une erreur quadratique moyenne ou une erreur absolue moyenne aurait plus de sens.
Donc, si vous aimez une faible variance et un faible biais, demander un estimateur d' erreur quadratique moyenne minimum aurait du sens; ce sont très rarement impartiaux.
Le biais et l'impartialité sont une notion utile à connaître, mais ce n'est pas une propriété particulièrement utile à rechercher, sauf si vous comparez uniquement des estimateurs avec la même variance.
Les estimateurs ML ont tendance à être peu variés; ils ne sont généralement pas un MSE minimum, mais ils ont souvent un MSE inférieur à ce que vous apporterait la modification pour qu'ils soient impartiaux (quand vous pouvez le faire).
A titre d'exemple, considérons l' estimation de la variance lors de l' échantillonnage d'une distribution normale σ 2 MMSE = S 2 (en effet, le MMSE pour la variance a toujours un dénominateur plus grand quen-1).σ^2MMSE= S2n + 1, σ^2MLE= S2n, σ^2Unb= S2n - 1n - 1