Supposons que XX et YOui sont des variables aléatoires.
Soit y 0y0 un nombre réel fixe , disons y 0 = 1y0= 1 . Alors,
E [ X ∣ Y = y 0 ] = E [ X ∣ Y = 1 ]E[X∣Y=y0]=E[X∣Y=1] est un
nombre : c'est la valeur conditionnelle attendue de XX étant donné que YY a la valeur 11 . Maintenant, notez pour un autre nombre réel fixe y 1y1 , disons y 1 = 1,5y1=1.5 , E [ X ∣ Y = y 1 ] = E [ X ∣ Y = 1,5 ]E[X∣Y=y1]=E[X∣Y=1.5] serait la valeur attendue conditionnelle de
XX étant donné Y = 1,5Y=1.5 (un nombre réel). Il n'y a aucune raison de supposer que E [ X ∣ Y = 1,5 ]E[X∣Y=1.5] et E [ X ∣ Y = 1 ]E[X∣Y=1] ont la même valeur. Ainsi, on peut aussi considérer E [ X ∣ Y = y ]E[X∣Y=y] comme étant un fonction g ( y ) à valeurg(y)
réelle qui mappe les nombres réels yy aux nombres réels E [ X ∣ Y = y ]E[X∣Y=y] . Notez que l'énoncé de la question de l'OP selon lequel E [ X ∣ Y = y ]E[X∣Y=y] est une fonction de
xx est incorrect: E [ X ∣ Y = y ]E[X∣Y=y] est une fonction à valeur réelle de yy .
D'autre part, E [ X | Y ]E[X∣Y] est une variable aléatoire ZZ qui se trouve être une fonction de la variable aléatoire YY . Maintenant, chaque fois que nous écrivons Z = h ( Y )Z=h(Y) , ce que nous voulons dire, c'est que chaque fois que la variable aléatoire
YY a la valeur yy , la variable aléatoire ZZ a la valeur
h ( y )h(y) . Chaque fois que YY prend la valeur yy , la variable aléatoire
Z = E [X ∣ Y ]Z=E[X∣Y] prend la valeur E [ X ∣ Y = y ] = g ( y )E[X∣Y=y]=g(y) . Ainsi, E [ X ∣ Y ]E[X∣Y] n'est qu'un autre nom pour la variable aléatoire Z = g ( Y )Z=g(Y) . Notez que E [ X ∣ Y ]E[X∣Y] est une fonction de YY
(pas yy comme dans l'énoncé de la question du PO).
Comme exemple illustratif simple, supposons que
XX et YY sont des variables aléatoires discrètes avec une distribution conjointe
P ( X = 0 , Y = 0 )= 0,1 , P ( X = 0 , Y = 1 ) = 0,2 , P ( X = 1 , Y = 0 )= 0,3 , P ( X = 1 , Y = 1 ) = 0,4. P(X=0,Y=0)P(X=1,Y=0)=0.1, P(X=0,Y=1)=0.2,=0.3, P(X=1,Y=1)=0.4.
Notez queXXetYYsontdes variables aléatoires deBernoulli(dépendantes)avec les paramètres0,70.7et0,60.6respectivement, et doncE[X]=0,7E[X]=0.7
etE[Y]=0,6E[Y]=0.6. Maintenant, notez queconditionnéeàY=0Y=0,XXest une variable aléatoire de Bernoulli avec le paramètre 0.750.75 alors qu'elle est conditionnée à Y = 1Y=1 , XX est une variable aléatoire de Bernoulli avec le paramètre 2323 . Si vous ne voyez pas pourquoi il en est ainsi immédiatement, déterminez simplement les détails: par exemple
P(X=1∣Y=0)=P(X=1,Y=0)P ( Y = 0 ) =0,30,4 =34 ,P(X=0∣Y=0)=P(X=0,Y=0)P(Y=0)=0.10.4=14,P(X=1∣Y=0)=P(X=1,Y=0)P(Y=0)=0.30.4=34,P(X=0∣Y=0)=P(X=0,Y=0)P(Y=0)=0.10.4=14,
and similarly for P(X=1∣Y=1)P(X=1∣Y=1) and P(X=0∣Y=1)P(X=0∣Y=1).
Hence, we have that
E[X∣Y=0]=34,E[X∣Y=1]=23.E[X∣Y=0]=34,E[X∣Y=1]=23.
Thus, E[X∣Y=y]=g(y)E[X∣Y=y]=g(y) where g(y)g(y) is a real-valued function
enjoying the
properties: g(0)=34,g(1)=23.g(0)=34,g(1)=23.
On the other hand, E[X∣Y]=g(Y)E[X∣Y]=g(Y) is a random variable
that takes on values 3434 and 2323 with
probabilities 0.4=P(Y=0)0.4=P(Y=0) and 0.6=P(Y=1)0.6=P(Y=1) respectively.
Note that E[X∣Y]E[X∣Y] is a discrete random variable
but is not a Bernoulli random variable.
As a final touch, note that
E[Z]=E[E[X∣Y]]=E[g(Y)]=0.4×34+0.6×23=0.7=E[X].E[Z]=E[E[X∣Y]]=E[g(Y)]=0.4×34+0.6×23=0.7=E[X].
That is, the expected value of this function of YY, which
we computed using only the marginal distribution of YY,
happens to have the same numerical value as E[X]E[X] !! This
is an illustration of a more general result that many
people believe is a LIE:
E[E[X∣Y]]=E[X].E[E[X∣Y]]=E[X].
Sorry, that's just a small joke. LIE is an acronym for Law of Iterated
Expectation which is a perfectly valid result that everyone
believes is the truth.