Nous savons (pour le moment environ 40 ans, merci Adleman, Bennet et Gill) que l'inclusion BPP P / poly, et un BPP / poly P / poly encore plus fort . Le "/ poly" signifie que nous travaillons de manière non uniforme (un circuit séparé pour chaque longueur d'entrée ), tandis que P sans ce "/ poly" signifie que nous avons une machine de Turing pour toutes les longueurs d'entrée n possibles , même plus longue que, disons, n = le nombre de secondes jusqu'au prochain "Big Bang". n
Question 1: Quelles nouveautés une preuve (ou une réfutation) de BPP = P contribuerait-elle à nos connaissances après avoir connu BPP P / poly?
Sous «nouveau», j'entends toutes les conséquences vraiment surprenantes, comme l'effondrement / la séparation d'autres classes de complexité. Comparez cela avec les conséquences de la preuve / non-preuve de NP P / poly.
[AJOUTÉ 08.10.2017]: Une conséquence vraiment surprenante de BPP P serait que, comme le montrent Impagliazzo et Wigderson , tous les (!) Problèmes dans E = DTIME auraient circuits de taille . Merci à Ryan d'avoir rappelé ce résultat.
Question 2: Pourquoi ne pouvons-nous pas prouver BPP = P de la même manière que la preuve de BPP / poly P / poly?
Un problème "évident" est le problème du domaine fini vs infini: les circuits booléens fonctionnent sur des domaines finis , tandis que les machines de Turing fonctionnent sur l'ensemble entier de - chaînes de n'importe quelle longueur. Ainsi, pour dérandomiser les circuits booléens probabilistes, il suffit de prendre la majorité des copies indépendantes d'un circuit probabiliste et d'appliquer l'inégalité de Chernoff, ainsi que l'union liée. Bien sûr, sur des domaines infinis , cette règle de majorité simple ne fonctionnera pas.
Mais est-ce (domaine infini) un véritable "obstacle"? En utilisant les résultats de la théorie de l'apprentissage statistique (dimension VC), nous pouvons déjà prouver que BPP / poly P / poly est également valable pour les circuits travaillant sur des domaines infinis , comme les circuits arithmétiques (travaillant sur tous les nombres réels); voir par exemple cet article de Cucker et al. Lors de l'utilisation d'une approche similaire, il suffirait de montrer que la dimension VC des machines de Turing poly-temps ne peut pas être trop grande. Quelqu'un a-t-il vu des tentatives pour franchir cette dernière étape?
NOTE [ajouté le 07.10.2017]: Dans le contexte de la dérandomisation, la dimension VC d'une classe de fonctions est définie comme le nombre maximal pour lequel il existe des fonctions dans telles que , pour chaque il y a un point avec ssi . C'est-à-dire que nous ne brisons pas les ensembles de points via les fonctions mais plutôt les ensembles de fonctions via les points. (Les deux définitions résultantes de la dimension VC sont liées, mais de façon exponentielle.)
Les résultats (connus sous le nom de convergence uniforme en probabilité ) impliquent alors ce qui suit: si pour chaque entrée , une fonction choisie au hasard (sous une certaine distribution de probabilité sur ) satisfait pour une constante , alors peut être calculé sur toutes les entrées comme une majorité de certains des fonctions (fixe) de . Voir, par exemple, Corollaire 2 dans l'article de Haussler . [Pour que cela tienne, il y a quelques conditions de mesurabilité douces sur ] f ∈ F F P r o b { f ( x ) = f ( x ) } ≥ 1 / 2 + c c > 0 f ( x ) x ∈ X m = O ( v ) F F
Par exemple, si est l'ensemble de tous les polynômes calculables par des circuits arithmétiques de taille , alors tous les polynômes de ont un degré au plus . En utilisant des limites supérieures connues sur le nombre de modèles nuls de polynômes (voir, par exemple, cet article ), on peut montrer que la dimension VC de est . Cela implique l'inclusion BPP / poly P / poly pour les circuits arithmétiques.