Je m'excuse, c'est une question un peu "douce".
La théorie de l'information n'a pas de concept de complexité informatique. Par exemple, une instance de SAT ou une instance de SAT plus un bit indiquant la satisfiabilité transportent la même quantité d'informations.
Existe-t-il un moyen de formaliser le concept de "polynomialement connaissable"?
Un tel cadre pourrait définir par exemple la notion de divergence polynomiale-KL entre une variable aléatoire X relative Y comme le nombre de bits nécessaires pour calculer X en temps polynomial étant donné Y.
De même, l'entropie d'une variable aléatoire X pourrait être définie comme le nombre de bits nécessaires pour coder X d'une manière qui peut être décodée en temps polynomial.
Une telle généralisation a-t-elle été étudiée? Peut-il être rendu cohérent?