Au cours des dernières années, il y a eu une vague de démonstrations de dispositifs capables de réaliser une preuve de principe, un calcul quantique à petite échelle et non tolérant aux pannes (ou les technologies quantiques à échelle intermédiaire bruyante, comment elles ont été désignées ).
Avec cela, je me réfère principalement aux dispositifs supraconducteurs et pièges à ions démontrés par des groupes tels que Google, Microsoft, Rigetti Computing, le groupe Blatt (et probablement d'autres que j'oublie maintenant).
Ces appareils, ainsi que ceux qui les suivront, sont souvent radicalement différents les uns des autres (en termes d'architecture, de portes plus faciles / plus difficiles à mettre en œuvre, nombre de qubit, connectivité entre les qubits, cohérence et temps de porte, génération et capacités de lecture, fidélité des portes, pour ne citer que les facteurs les plus évidents).
D'un autre côté, il est très courant dans les communiqués de presse et les actualités non techniques de simplement dire "le nouveau dispositif X a Y plus de qubits que le précédent, il est donc beaucoup plus puissant".
Le nombre de qubits est-il vraiment un facteur si important pour évaluer ces appareils? Ou devrions-nous plutôt utiliser des métriques différentes? Plus généralement, existe-t-il des mesures «simples» qui peuvent être utilisées pour comparer qualitativement, mais de manière significative, différents appareils?