L'analyse du pire et du cas moyen sont des mesures bien connues de la complexité d'un algorithme. L'analyse lissée récemment est apparue comme un autre paradigme pour expliquer pourquoi certains algorithmes exponentiels dans le pire des cas fonctionnent si bien dans la pratique, par exemple l'algorithme simplex.
Ma question est - existe-t-il d'autres paradigmes pour mesurer la complexité d'un algorithme? Je suis particulièrement intéressé par ceux qui tentent d'expliquer pourquoi certains algorithmes qui ont une mauvaise complexité dans le pire des cas fonctionnent bien dans la pratique.