Les gens de la "théorie de l'échantillonnage" vous diront qu'il n'existe pas une telle estimation. Mais vous pouvez en obtenir un, il vous suffit d'être raisonnable sur vos informations antérieures et de faire un travail mathématique beaucoup plus difficile.
Si vous avez spécifié une méthode d'estimation bayésienne et que le postérieur est le même que le précédent, vous pouvez dire que les données ne disent rien sur le paramètre. Parce que les choses peuvent devenir "singulières" sur nous, nous ne pouvons pas utiliser des espaces de paramètres infinis. Je suppose que parce que vous utilisez la corrélation de Pearson, vous avez une probabilité normale bivariée:
où
Qi=(xi-μx)2
p ( D | μX, μy, σX, σy, ρ ) = ( σXσy2 π( 1 - ρ2)--------√)- Ne x p ( - ∑jeQje2 ( 1 - ρ2))
Qje= ( xje- μX)2σ2X+ ( yje- μy)2σ2y- 2 ρ ( xje- μX) ( yje- μy)σXσy
Maintenant, pour indiquer qu'un ensemble de données peut avoir la même valeur, écrivez , puis nous obtenons:yje= y
∑jeQje= N[ ( y- μy)2σ2y+ s2X+ ( x¯¯¯- μX)2σ2X- 2 ρ ( x¯¯¯- μX) ( y- μy)σXσy]
s2X= 1N∑je( xje- x¯¯¯)2
s2X, y, x¯¯¯, NρμX, μy, σX, σy
∑jeQje1 - ρ2= N⎡⎣⎢⎢( μy- [ y- ( x¯¯¯- μX) ρ σyσX] )2σ2y( 1 - ρ2)+ s2Xσ2X( 1 - ρ2)+ ( x¯¯¯- μX)2σ2X⎤⎦⎥⎥
Lμ< μX, μy< UμLσ< σX, σy< Uσρ± 1
p ( ρ , μX, μy, σX, σy) = p ( ρ )A σXσy
A = 2 ( Uμ- Lμ)2[ l o g( Uσ) - l o g( Lσ) ]2
p ( ρ | D ) = ∫p ( ρ , μX, μy, σX, σy) p ( D | μX, μy, σX, σy, ρ ) dμyréμXréσXréσy
= p ( ρ )A [ 2 π( 1 - ρ2) ]N2∫UσLσ∫UσLσ( σXσy)- N- 1e x p ( - Ns2X2 σ2X( 1 - ρ2)) ×
∫UμLμe x p ( - N( x¯¯¯- μX)22 σ2X)∫UμLμe x p ⎛⎝⎜⎜- N( μy- [ y- ( x¯¯¯- μX) ρ σyσX] )22 σ2y( 1 - ρ2)⎞⎠⎟⎟réμyréμXréσXréσy
μyz= N--√μy- [ y- ( x¯¯¯- μX) ρ σyσX]σy1 - ρ2√⟹réz= N√σy1 - ρ2√réμyμy
σy2 π( 1 - ρ2)--------√N--√⎡⎣⎢Φ ⎛⎝⎜Uμ- [ y- ( x¯¯¯- μX) ρ σyσX]σyN√1 - ρ2-----√⎞⎠⎟- Φ ⎛⎝⎜Lμ- [ y- ( x¯¯¯- μX) ρ σyσX]σyN√1 - ρ2-----√⎞⎠⎟⎤⎦⎥
ρp ( ρ )ρ
μyρΦ ( . )ρ- 0,99 , - 0,98 , … , 0,98 , 0,99