La théorie de la complexité, à travers des concepts tels que la complétude NP, fait la distinction entre les problèmes de calcul qui ont des solutions relativement efficaces et ceux qui sont insolubles. La complexité "fine" vise à affiner cette distinction qualitative en un guide quantitatif quant au temps exact requis pour résoudre les problèmes. Plus de détails peuvent être trouvés ici: http://simons.berkeley.edu/programs/complexity2015
Voici quelques hypothèses importantes:
ETH: - nécessite temps pour certains .
SETH: pour tout , il y a un tel que - sur variables, les clauses ne peuvent pas être résolues en temps.
Il est connu que SETH est plus fort que ETH et ils sont tous les deux plus forts que , et tous deux plus forts que .
Quatre autres conjectures importantes:
Conjecture 3SUM: 3SUM sur entiers dans nécessite fois
Conjecture OV: Les vecteurs orthogonaux sur vecteurs nécessitent temps.
Conjecture APSP: toutes les paires de chemin le plus court sur nœuds et les poids de bits nécessitent temps.
Conjecture BMM: Tout algorithme "combinatoire" pour la multiplication matricielle booléenne nécessite temps.
On sait que SETH implique la conjecture OV (Ryan Willams, 2004). Outre la preuve de Ryan que SETH OV Conjecture, il n'y a pas d'autres réductions concernant les conjectures connues.
Ma question: connaissez-vous d'autres hypothèses ou conjectures connexes dans ce domaine? Quelles sont les relations entre eux?
Remerciements: les résultats énumérés proviennent des diapositives de Virginia Vassilevska Williams, elle m'a également donné des réponses partielles à cette question.
Lien vers les diapositives: http://theory.stanford.edu/~virgi/overview.pdf