L'entropie de Renyi est analogue, dans un certain sens, à ℓp normales, alors rappelons d'abord pourquoi ces normes sont utiles.
Supposons que nous ayons un vecteur de nombres . Nous voulons avoir un numéro unique qui représente, dans un certain sens, comment l'élément typique d' una∈Rna .
Une façon de le faire est de prendre la moyenne des nombres dans , ce qui correspond à peu près à la norme ℓ 1 : E 1 ≤ i ≤ n [ | a i | ] . Ceci est souvent utile, mais pour certaines applications, il présente les problèmes suivants: Premièrement, la norme ℓ 1 ne nous donne pas une bonne borne supérieure sur le plus grand élément de a , car s'il y a un seul grand élément et plusieurs zéros, le ℓ 1 norme sera significativement plus petite que l'élément le plus grand. En revanche, le ℓ 1aℓ1E1≤i≤n[|ai|]ℓ1aℓ1ℓ1La norme ne nous donne pas non plus une bonne limite sur la taille des éléments d' , par exemple, le nombre de zéros d' unaa a - ce problème se produit exactement le même scénario que précédemment.
Bien sûr, lorsque les éléments d' ont beaucoup de variance, comme dans le scénario extrême ci-dessus, aucun nombre unique ne peut résoudre les deux problèmes ci-dessus. Nous avons un compromis. Par exemple, si nous voulons seulement connaître l'élément le plus grand, nous pouvons utiliser la norme ℓ ∞ , mais nous perdrons alors toutes les informations sur les éléments les plus petits. Si nous voulons le nombre de zéros, nous pouvons regarder la norme ℓ 0 , qui est juste la taille du support d' unaℓ∞ℓ0a .
Maintenant, la raison pour laquelle nous considérons les normes est qu'elles nous donnent tout le compromis continu entre les deux extrêmes. Si nous voulons plus d'informations sur les grands éléments, nous considérons que p est plus grand, et vice versa.ℓpp
Il en va de même pour les entropies de Renyi: l'entropie de Shanon est comme la norme - elle nous dit quelque chose sur la probabilité "typique" d'un élément, mais rien sur la variance ou les extrêmes. La min-entropie nous donne des informations sur l'élément avec la plus grande probabilité, mais perd toutes les informations sur le reste. La taille du support donne l'autre extrême. Les entropies Renyi nous donnent un compromis continu entre les deux extrêmes.ℓ1
Par exemple, plusieurs fois l'entropie Renyi-2 est utile car elle est d'une part proche de l'entropie de Shanon, et contient donc des informations sur tous les éléments de la distribution, et d'autre part donne plus d'informations sur les éléments avec la plus grande probabilité. En particulier, il est connu que les limites de l'entropie Renyi-2 donnent des limites sur l'entropie min, voir, par exemple, l'annexe A ici: http://people.seas.harvard.edu/~salil/research/conductors-prelim .ps