Questions marquées «it.information-theory»

Questions en théorie de l'information

3
Sur l'entropie d'une somme
Je cherche une borne sur l'entropie de la somme de deux variables aléatoires discrètes indépendantes X et Y . Naturellement, H ( X + Y ) ≤ H ( X ) + H ( Y ) ( ∗ ) Cependant, appliqué à la somme de n variables aléatoires Bernoulli indépendantes …

2
Résultats de codage de canal utilisant la complexité de Kolmogorov
L'entropie de Shannon est généralement utilisée pour prouver les résultats du codage de canal. Même pour les résultats de séparation source-canal, l'entropie shannon est utilisée. Étant donné l'équivalence entre les notions d'information de Shannon (global) et de Kolmogorov (local), y a-t-il eu une étude pour utiliser la complexité de Kolmogorov …

1
Distinguer entre
Etant donné un état quantique choisi uniformément au hasard parmi un ensemble de N états mixtes ρ 1 . . . ρ N , quelle est la probabilité moyenne maximale d'identifier correctement A ?ρAρA\rho_ANNNρ1...ρNρ1...ρN\rho_1 ... \rho_NAAA Ce problème peut être transformé en un problème de distinction à deux états en …

1
Un problème combinatoire simple (?) Drôle!
Fixons et un entier .t > 00<E<10<E<100 pour tout et pour tout vecteur tel quennnc¯∈[0,1]nc¯∈[0,1]n\bar{c} \in [0,1]^n∑i∈[n]ci≥E×n∑i∈[n]ci≥E×n\sum_{i\in [n]} c_i \geq E \times n Ac¯:=|{S⊆[n]:∑i∈S ci≥E×t}|≥(E×nt)Ac¯:=|{S⊆[n]:∑i∈S ci≥E×t}|≥(E×nt)A_{\bar{c}} :=|\{ S \subseteq [n] : \sum_{i \in S}~ c_i \geq E \times t \}| \geq \binom{ E \times n}{ t } Je ne sais …



2
A l'inverse de l'inégalité de Fano?
L'inégalité de Fano peut être exprimée sous de nombreuses formes, et une particulièrement utile est due (avec une modification mineure) à Oded Regev : Soit une variable aléatoire, et soit où est un processus aléatoire. Supposons l'existence d'une procédure qui, avec puisse reconstruire avec une probabilité . Alors Y = …



4
Enquêtes sur le codage réseau
Je veux commencer à apprendre le codage réseau: http://en.wikipedia.org/wiki/Network_coding Connaissez-vous une bonne enquête (par exemple à partir des enquêtes et des tutoriels IEEE) sur les sujets ci-dessus. J'ai trouvé des cours universitaires sur google mais j'aimerais avoir des recommandations de personnes qui ont déjà lu et connaissent une bonne source. …

1
Fonction thêta de Lovasz et graphes réguliers (cycles impairs en particulier) - connexions à la théorie spectrale
Le message est lié à: /mathpro/59631/lovasz-theta-function-and-independence-number-of-product-of-simple-odd-cycles À quelle distance le Lovasz est-il lié à la capacité sans erreur des graphiques réguliers? Existe-t-il des exemples où la limite de Lovasz est connue pour ne pas être égale à la capacité d'erreur zéro d'un graphique régulier? (Cela a été répondu ci-dessous par …

3
Existe-t-il une généralisation de la théorie de l'information aux informations connaissables polynomialement?
Je m'excuse, c'est une question un peu "douce". La théorie de l'information n'a pas de concept de complexité informatique. Par exemple, une instance de SAT ou une instance de SAT plus un bit indiquant la satisfiabilité transportent la même quantité d'informations. Existe-t-il un moyen de formaliser le concept de "polynomialement …


1
L'entropie d'une distribution bruyante
Supposons que nous ayons une fonction telle que et est une distribution, c'est-à-dire .f:Zn2→Rf:Z2n→Rf:\mathbb{Z}_2^n \to \mathbb{R}∀x∈Zn2f(x)∈{12n,22n,…,2n2n},∀x∈Z2nf(x)∈{12n,22n,…,2n2n},\forall x\in \mathbb{Z}_2^n \quad f(x) \in \left\{\frac{1}{2^n}, \frac{2}{2^n}, \ldots, \frac{2^n}{2^n} \right\},fff∑x∈Zn2f(x)=1∑x∈Z2nf(x)=1\sum_{x\in \mathbb{Z}_2^n} f(x) = 1 L'entropie de Shannon de est définie comme suit: fffH(f)=−∑x∈Zn2f(x)log(f(x)).H(f)=−∑x∈Z2nf(x)log⁡(f(x)).H(f) = -\sum _{x \in \mathbb{Z}_2^n} f(x) \log \left( f(x) \right) . …

2
Événements à forte probabilité sans coordonnées à faible probabilité
Soit une variable aléatoire prenant des valeurs dans (pour un grand alphabet ), qui a une entropie très élevée - disons,pour une constante arbitrairement petite . Soit un événement dans le support de tel que , où \ varepsilon est une constante arbitrairement petite.XXXΣnΣn\Sigma^nΣΣ\SigmaH(X)≥(n−δ)⋅log|Σ|H(X)≥(n−δ)⋅log⁡|Σ|H(X) \ge (n- \delta)\cdot\log|\Sigma|δδ\deltaE⊆Supp(X)E⊆Supp(X)E \subseteq \rm{Supp}(X)XXXεPr[X∈E]≥1−εPr[X∈E]≥1−ε\Pr[X \in …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.