Remarquez que la variable aléatoire est uniquement fonction de Z = ( Z 1 , … , Z n ) . Pour un vecteur n , z , nous écrivons i j ( z ) pour l'indice de la j ème coordonnée la plus grande. Soit également P z ( A ) = P ( X 1 ∈ A ∣ Z 1 = z ) la distribution conditionnelle de X 1ijZ=(Z1,…,Zn)nzij(z)jPz( A ) = P( X1∈ A ∣ Z1= z)X1étant donné .Z1
Si nous décomposons les probabilités en fonction de la valeur de et que nous nous désintégrons par rapport à Z, nous obtenonsjejZ
P( Xjej∈ A )=====∑kP( Xk∈ A , ij= k )∑k∫( jej( z) = k )P( Xk∈ A ∣ Z = z ) P( Z ∈ dz )∑k∫( jej( z) = k )P( Xk∈ A ∣ Zk= zk) P( Z ∈ dz )∑k∫( jej( z) = k )Pzk( A ) P( Z ∈ dz )∫Pz( A ) P( Zjej∈ dz)
Cet argument est assez général et ne repose que sur les hypothèses iid énoncées, et pourrait être n'importe quelle fonction donnée de ( X k , Y k ) .Zk( Xk, Yk)
Sous les hypothèses de distributions normales (en prenant ) et Z k étant la somme, la distribution conditionnelle de X 1 étant donné que Z 1 = z est
N ( σ 2 xσy= 1ZkX1Z1= z
et @probabilityislogic montre comment calculer la distribution deZij, donc nous avons des expressions explicites pour les deux distributions qui entrent dans la dernière intégrale ci-dessus. La question de savoir si l'intégrale peut être calculée analytiquement est une autre question. Vous pourriez peut-être le faire, mais du haut de ma tête, je ne peux pas dire si c'est possible. Pour une analyse asymptotique lorsqueσx→0ouσx→∞cela peut ne pas être nécessaire.
N( σ2X1 + σ2Xz, σ2X( 1 - σ2X1 + σ2X) )
ZjejσX→ 0σX→ ∞
L'intuition derrière le calcul ci-dessus est qu'il s'agit d'un argument d'indépendance conditionnelle. Étant donné les variables X k et i j sont indépendantes.Zk= zXkjej