Quels sont vos exemples préférés dans lesquels la théorie de l’information est utilisée pour prouver de façon simple une déclaration combinatoire nette? Certains exemples auxquels je peux penser sont liés aux limites inférieures pour les codes localement décodables, par exemple, dans cet article: supposons que pour un tas de chaînes …
De manière informelle, la complexité de Kolmogorov d'une chaîne est la longueur d'un programme le plus court qui génère x . Nous pouvons définir une notion de 'chaîne aléatoire' en l'utilisant ( x est aléatoire si K ( x ) ≥ 0,99 | x | ) Il est facile de …
Cette question a été posée à Jeannette Wing après sa présentation de PCAST sur la science informatique. «Du point de vue de la physique, y a-t-il un volume maximal d'informations que nous pouvons avoir?» (Une question intéressante pour la communauté informatique théorique, car je pense que cela soulève la question …
La complexité du préfixe de Kolmogorov (c'est-à-dire que est la taille du programme d'auto-délimitation minimal qui génère ) a plusieurs fonctionnalités intéressantes:xK( x )K(x)K(x)Xxx Cela correspond à une intuition de donner aux chaînes avec des motifs ou une structure une complexité inférieure à celle des chaînes sans. Il nous permet …
Je recherche des codes correcteurs d'erreurs du type suivant: codes binaires à débit constant, décodable à partir d'une fraction constante d'erreurs, par un décodeur réalisable en tant que circuit booléen de taille , où est la longueur de codage.O(N)O(N)O(N)NNN Quelques antécédents: Spielman, dans les codes de correction d'erreur codables et …
Le code de Huffman pour une distribution de probabilité est le code de préfixe avec la longueur moyenne pondérée minimale du mot de code , où est la longueur du ème mot de code. C'est un théorème bien connu que la longueur moyenne par symbole du code Huffman est comprise …
Dans la théorie de l'information quantique, la distance entre deux canaux quantiques est souvent mesurée en utilisant la norme du diamant. Il existe également un certain nombre de façons de mesurer la distance entre deux états quantiques, comme la distance de trace, la fidélité, etc. L' isomorphisme de Jamiołkowski fournit …
La complexité de l'information a été un outil très utile dans la complexité de la communication, principalement utilisée pour réduire la complexité de la communication des problèmes distribués. Existe-t-il un analogue de la complexité des informations pour la complexité des requêtes? Il existe de nombreux parallèles entre la complexité des …
Dans l'implémentation d'un filtre Bloom, l'approche traditionnelle nécessite plusieurs fonctions de hachage indépendantes. Kirsch et Mitzenmacher ont montré que vous n'en avez besoin que de deux et que vous pouvez générer le reste sous forme de combinaisons linéaires. Ma question est: quelle est vraiment la différence entre deux fonctions de …
La plupart d'entre nous connaissent - ou du moins ont entendu parler - l'entropie de Shannon d'une variable aléatoire, H(X)=−E[logp(X)]H(X)=−E[logp(X)]H(X) = -\mathbb{E} \bigl[ \log p(X)\bigr] , et toutes les mesures théoriques de l'information connexes telles que l'entropie relative, informations mutuelles, etc. Il existe quelques autres mesures de l'entropie couramment utilisées …
Lemme: En supposant une équivalence éta, nous avons cela (\x -> ⊥) = ⊥ :: A -> B. Preuve: ⊥ = (\x -> ⊥ x)par eta-équivalence, et (\x -> ⊥ x) = (\x -> ⊥)par réduction sous lambda. Le rapport Haskell 2010, section 6.2 spécifie la seqfonction par deux équations: …
Dernièrement, j'ai eu affaire à des algorithmes liés à la compression, et je me demandais quel était le meilleur taux de compression pouvant être atteint par la compression de données sans perte. Jusqu'à présent, la seule source que j'ai pu trouver sur ce sujet était Wikipedia: La compression sans perte …
L'algorithme DEFLATE populaire utilise le codage Huffman au-dessus de Lempel-Ziv. En général, si nous avons une source aléatoire de données (= entropie 1 bit / bit), aucun encodage, y compris Huffman, n'est susceptible de le compresser en moyenne. Si Lempel-Ziv était "parfait" (ce qu'il approche pour la plupart des classes …
Il y a un chercheur montrant que l'effacement d'un bit doit consommer de l'énergie, maintenant y a-t-il des recherches sur la consommation moyenne d'énergie d'un algorithme avec une complexité de calcul ? Je suppose que la complexité de calcul F ( n ) est corrélée à la consommation moyenne d'énergie, …
Supposons que nous ayons une fonction f:Zn2→Rf:Z2n→Rf:\mathbb{Z}_2^n \to \mathbb{R} , telle que ∑x∈Zn2f(x)2=1∑x∈Z2nf(x)2=1\sum _{x\in \mathbb{Z}_2^n} f(x)^2 = 1 (nous pouvons donc penser à {f(x)2}x∈Zn2{f(x)2}x∈Z2n\{ f(x)^2\} _{x\in \mathbb{Z}_2^n} comme une distribution) . Il est naturel de définir l'entropie d'une telle fonction comme suit: H(f)=−∑x∈Zn2f(x)2log(f(x)2).H(f)=−∑x∈Z2nf(x)2log(f(x)2).H(f) = -\sum _{x \in \mathbb{Z}_2^n} f(x)^2 \log …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.