Je recherche des méthodes permettant d'estimer l'entropie d'informations d'une distribution alors que les seules méthodes pratiques d'échantillonnage à partir de cette distribution sont les méthodes de Monte Carlo.
Mon problème n'est pas différent du modèle Ising standard qui est généralement utilisé comme exemple d'introduction pour l'échantillonnage Metropolis – Hastings. I ont une distribution de probabilité sur un ensemble , à savoir je p ( a ) pour chacun d' un ∈ A . Les éléments a ∈ A sont de nature combinatoire, comme les états d'Ising, et ils sont très nombreux. Cela signifie qu'en pratique, je n'obtiens jamais deux fois le même échantillon lors de l'échantillonnage de cette distribution sur un ordinateur. p ( a ) ne peut pas être calculé directement (en raison de l'ignorance du facteur de normalisation), mais le rapport p ( a est facile à calculer.
Je veux estimer l'entropie d'information de cette distribution,
Alternativement, je veux estimer la différence d'entropie entre cette distribution et celle obtenue en la restreignant à un sous ensemble a ∈ A 1 ⊂ A (et bien sûr en re-normalisant).