Réponses:
Oui, il a une limite supérieure, mais pas 1.
L' information mutuelle (en bits) est 1 lorsque deux parties (statistiquement) partagent un bit d'information. Cependant, ils peuvent partager des données arbitraires volumineuses. En particulier, s'ils partagent 2 bits, alors c'est 2.
L'information mutuelle est limitée par le haut par l' entropie de Shannon des distributions de probabilité pour les parties uniques, c'est-à-dire .