Supposons qu'une variable aléatoire ait une borne inférieure et une borne supérieure [0,1]. Comment calculer la variance d'une telle variable?
Supposons qu'une variable aléatoire ait une borne inférieure et une borne supérieure [0,1]. Comment calculer la variance d'une telle variable?
Réponses:
Vous pouvez prouver l'inégalité de Popoviciu comme suit. Utiliser la notation m = inf X
Maintenant, considérons la valeur de la fonction g
Soit F une distribution sur [ 0 , 1 ] . Nous montrerons que si la variance de F est maximale, alors F ne peut avoir aucun support à l'intérieur, d'où il résulte que F est Bernoulli et le reste est trivial.
En termes de notation, soit μ k = ∫ 1 0 x k d F ( x ) le k ème moment brut de F (et, comme d'habitude, on écrit μ = μ 1 et σ 2 = μ 2 - μ 2 pour la variance).
Nous savons que F n'a pas tout son support à un moment donné (la variance est minime dans ce cas). Cela implique entre autres que μ se situe strictement entre 0 et 1 . Pour argumenter par contradiction, supposons qu'il existe un sous-ensemble mesurable I à l'intérieur ( 0 , 1 ) pour lequel F ( I ) > 0 . Sans aucune perte de généralité, nous pouvons supposer (en changeant X en 1 - X si besoin est) que F ( J = I
Modifions F en F ′ en retirant toute probabilité de J et en la plaçant à 0 .
μ ′ k = μ k - ∫ J x k d F ( x ) .
As a matter of notation, let us write [g(x)]=∫Jg(x)dF(x)
μ′2=μ2−[x2],μ′=μ−[x].
Calculate
σ′2=μ′2−μ′2=μ2−[x2]−(μ−[x])2=σ2+((μ[x]−[x2])+(μ[x]−[x]2)).
The second term on the right, (μ[x]−[x]2)
μ[x]−[x2]=μ(1−[1])+([μ][x]−[x2]).
The first term on the right is strictly positive because (a) μ>0
We have just shown that under our assumptions, changing F
Now when F
If the random variable is restricted to [a,b]
Let us first consider the case a=0,b=1
To generalize to intervals [a,b]
At @user603's request....
A useful upper bound on the variance σ2
Another point to keep in mind is that a bounded random variable has finite variance, whereas for an unbounded random variable, the variance might not be finite, and in some cases might not even be definable. For example, the mean cannot be defined for Cauchy random variables, and so one cannot define the variance (as the expectation of the squared deviation from the mean).
are you sure that this is true in general - for continuous as well as discrete distributions? Can you provide a link to the other pages?
For a general distibution on [a,b]
On the other hand one can find it with the factor 1/4
This article looks better than the wikipedia article ...
For a uniform distribution it holds that Var(X)=(b−a)212.