Ci-dessous, supposons que nous travaillons avec une machine de Turing à bande infinie.
En expliquant la notion de complexité temporelle à quelqu'un et pourquoi elle est mesurée par rapport à la taille d'entrée d'une instance, je suis tombé sur la revendication suivante:
[..] Par exemple, il est naturel que vous ayez besoin de plus d'étapes pour multiplier deux entiers avec 100 000 bits que, disons, multiplier deux entiers avec 3 bits.
L'affirmation est convaincante, mais en quelque sorte agitant la main. Dans tous les algorithmes que j'ai rencontrés, plus la taille d'entrée est grande, plus vous avez besoin d'étapes. En termes plus précis, la complexité temporelle est une fonction augmentant de façon monotone de la taille d'entrée.
Est-il vrai que la complexité temporelle est toujours une fonction croissante de la taille d'entrée? Si oui, pourquoi est-ce le cas? Y a-t-il une preuve de cela au-delà de la main agitant?