Je lis "Causality" de Judea Pearl (deuxième édition 2009) et dans la section 1.1.5 Indépendance conditionnelle et graphoïdes, il déclare:
Voici une liste (partielle) de propriétés satisfaites par la relation d'indépendance conditionnelle (X_ || _Y | Z).
- Symétrie: (X_ || _ Y | Z) ==> (Y_ || _X | Z).
- Décomposition: (X_ || _ YW | Z) ==> (X_ || _Y | Z).
- Union faible: (X_ || _ YW | Z) ==> (X_ || _Y | ZW).
- Contraction: (X_ || _ Y | Z) & (X_ || _ W | ZY) ==> (X_ || _ YW | Z).
- Intersection: (X_ || _ W | ZY) & (X_ || _ Y | ZW) (X_ || _ YW | Z).
(L'intersection est valide dans les distributions de probabilité strictement positives .)
(formule (1.28) donnée précédemment dans la publication: [(X_ || _ Y | Z) ssi P (X | Y, Z) = P (X | Z))
Mais qu'est-ce qu'une "distribution strictement positive" en termes généraux, et qu'est-ce qui distingue une "distribution strictement positive" d'une distribution qui n'est pas strictement positive?