Je compare deux distributions avec une divergence KL qui me renvoie un nombre non standardisé qui, selon ce que j'ai lu sur cette mesure, est la quantité d'informations nécessaires pour transformer une hypothèse en l'autre. J'ai deux questions:
a) Existe-t-il un moyen de quantifier une divergence KL afin qu'elle ait une interprétation plus significative, par exemple comme une taille d'effet ou un R ^ 2? Toute forme de normalisation?
b) Dans R, lorsque vous utilisez KLdiv (package flexmix), vous pouvez définir la valeur 'esp' (standard esp = 1e-4) qui définit tous les points plus petits que esp sur une certaine norme afin de fournir une stabilité numérique. J'ai joué avec différentes valeurs esp et, pour mon ensemble de données, j'obtiens une divergence KL de plus en plus grande, plus un nombre est petit. Que se passe-t-il? Je m'attends à ce que plus l'esp est petite, plus les résultats devraient être fiables car ils laissent plus de «valeurs réelles» faire partie de la statistique. Non? Je dois changer l'esp car sinon il ne calcule pas la statistique mais apparaît simplement comme NA dans le tableau des résultats ...