Je cherche une borne sur l'entropie de la somme de deux variables aléatoires discrètes indépendantes X et Y . Naturellement, H ( X + Y ) ≤ H ( X ) + H ( Y ) ( ∗ ) Cependant, appliqué à la somme de n variables aléatoires Bernoulli indépendantes …
L'entropie de Shannon est généralement utilisée pour prouver les résultats du codage de canal. Même pour les résultats de séparation source-canal, l'entropie shannon est utilisée. Étant donné l'équivalence entre les notions d'information de Shannon (global) et de Kolmogorov (local), y a-t-il eu une étude pour utiliser la complexité de Kolmogorov …
Etant donné un état quantique choisi uniformément au hasard parmi un ensemble de N états mixtes ρ 1 . . . ρ N , quelle est la probabilité moyenne maximale d'identifier correctement A ?ρAρA\rho_ANNNρ1...ρNρ1...ρN\rho_1 ... \rho_NAAA Ce problème peut être transformé en un problème de distinction à deux états en …
Fixons et un entier .t > 00<E<10<E<100 pour tout et pour tout vecteur tel quennnc¯∈[0,1]nc¯∈[0,1]n\bar{c} \in [0,1]^n∑i∈[n]ci≥E×n∑i∈[n]ci≥E×n\sum_{i\in [n]} c_i \geq E \times n Ac¯:=|{S⊆[n]:∑i∈S ci≥E×t}|≥(E×nt)Ac¯:=|{S⊆[n]:∑i∈S ci≥E×t}|≥(E×nt)A_{\bar{c}} :=|\{ S \subseteq [n] : \sum_{i \in S}~ c_i \geq E \times t \}| \geq \binom{ E \times n}{ t } Je ne sais …
Je travaille dans un laboratoire de neurosciences computationnelles qui quantifie les informations mutuelles entre paires ou groupes de neurones. Récemment, le patron s'est concentré sur la mesure de la "complexité de la dynamique neuronale". En poursuivant cette ligne de recherche, certaines personnes de mon groupe semblent assimiler "complexe" avec "a …
Je suis actuellement à la recherche d'un sujet de thèse et ai rencontré le domaine de la théorie algorithmique de l'information. Le terrain me semble très intéressant, mais il semble que tout soit fait le terrain a été fait avant plusieurs années. Ma question est donc la suivante: le champ …
L'inégalité de Fano peut être exprimée sous de nombreuses formes, et une particulièrement utile est due (avec une modification mineure) à Oded Regev : Soit une variable aléatoire, et soit où est un processus aléatoire. Supposons l'existence d'une procédure qui, avec puisse reconstruire avec une probabilité . Alors Y = …
Fixe . Pour tout n assez grand , nous aimerions étiqueter tous les sous-ensembles de { 1 .. n } de taille exactement n / k par des entiers positifs de { 1 ... T } . Nous aimerions que cet étiquetage satisfasse la propriété suivante: il y a un …
Dans l'étude sur deux problèmes de théorie de l'information , Erdõs et Rényi donnent des limites inférieures sur le nombre minimum de pesées à faire pour déterminer le nombre de fausses pièces dans un ensemble de pièces.nnn Plus formellement: Les fausses pièces ont un poids plus petit que les bonnes …
Je veux commencer à apprendre le codage réseau: http://en.wikipedia.org/wiki/Network_coding Connaissez-vous une bonne enquête (par exemple à partir des enquêtes et des tutoriels IEEE) sur les sujets ci-dessus. J'ai trouvé des cours universitaires sur google mais j'aimerais avoir des recommandations de personnes qui ont déjà lu et connaissent une bonne source. …
Le message est lié à: /mathpro/59631/lovasz-theta-function-and-independence-number-of-product-of-simple-odd-cycles À quelle distance le Lovasz est-il lié à la capacité sans erreur des graphiques réguliers? Existe-t-il des exemples où la limite de Lovasz est connue pour ne pas être égale à la capacité d'erreur zéro d'un graphique régulier? (Cela a été répondu ci-dessous par …
Je m'excuse, c'est une question un peu "douce". La théorie de l'information n'a pas de concept de complexité informatique. Par exemple, une instance de SAT ou une instance de SAT plus un bit indiquant la satisfiabilité transportent la même quantité d'informations. Existe-t-il un moyen de formaliser le concept de "polynomialement …
Supposons qu'Alice ait une distribution sur un domaine fini (mais peut-être très grand), de telle sorte que l'entropie (Shannon) de soit délimitée par une constante arbitrairement petite . Alice tire une valeur de , puis demande à Bob (qui connaît ) de deviner .μμ\muμμ\muεε\varepsilonxxxμμ\muμμ\muxxx Quelle est la probabilité de réussite …
Supposons que nous ayons une fonction telle que et est une distribution, c'est-à-dire .f:Zn2→Rf:Z2n→Rf:\mathbb{Z}_2^n \to \mathbb{R}∀x∈Zn2f(x)∈{12n,22n,…,2n2n},∀x∈Z2nf(x)∈{12n,22n,…,2n2n},\forall x\in \mathbb{Z}_2^n \quad f(x) \in \left\{\frac{1}{2^n}, \frac{2}{2^n}, \ldots, \frac{2^n}{2^n} \right\},fff∑x∈Zn2f(x)=1∑x∈Z2nf(x)=1\sum_{x\in \mathbb{Z}_2^n} f(x) = 1 L'entropie de Shannon de est définie comme suit: fffH(f)=−∑x∈Zn2f(x)log(f(x)).H(f)=−∑x∈Z2nf(x)log(f(x)).H(f) = -\sum _{x \in \mathbb{Z}_2^n} f(x) \log \left( f(x) \right) . …
Soit une variable aléatoire prenant des valeurs dans (pour un grand alphabet ), qui a une entropie très élevée - disons,pour une constante arbitrairement petite . Soit un événement dans le support de tel que , où \ varepsilon est une constante arbitrairement petite.XXXΣnΣn\Sigma^nΣΣ\SigmaH(X)≥(n−δ)⋅log|Σ|H(X)≥(n−δ)⋅log|Σ|H(X) \ge (n- \delta)\cdot\log|\Sigma|δδ\deltaE⊆Supp(X)E⊆Supp(X)E \subseteq \rm{Supp}(X)XXXεPr[X∈E]≥1−εPr[X∈E]≥1−ε\Pr[X \in …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.