Si je comprends bien, un algorithme qui calcule la valeur d'une fonction réelle a une complexité de calcul si les conditions suivantes sont réunies: Lorsque nous calculons à la précision requiert de l'ordre des étapes .
Cependant, que se passe-t-il si nous avons un algorithme qui "trouve d'abord un algorithme plus efficace pour calculer ", puis calcule ?
En d'autres termes, que se passe-t-il si nous avons un algorithme qui fait ce qui suit:
Trouver un algorithme efficace pour le calcul .
utilisez pour calculer .
Dans ce cas, nous ne pouvons plus parler du temps de calcul , il faudrait pour calculer par exemple, parce qu'il dépend entièrement de savoir si l' algorithme algorithme a déjà trouvé . En d'autres termes, le temps de calcul requis pour calculer si est le premier nombre calculé est bien supérieur au temps de calcul nécessaire pour calculer après que déjà été calculé.
Ma question est, existe-t-il un concept / théorie sur ce type d'algorithme qui trouve d'abord un autre algorithme avant de calculer une fonction? Plus précisément, je m'interroge sur l'analyse de la complexité de calcul de ces algorithmes.