Le bon professeur est, heureusement, toujours avec nous et le meilleur moyen de trouver une réponse définitive est de lui écrire et de lui demander son avis.
Cela dit, je ne pense pas que le nombre absolu compte autant que la fonction que représentent les factorielles. Que Knuth l'ait ou non réalisé à l'époque, le modèle qu'il a établi avec cette déclaration fonctionne très bien pour regarder en arrière ce qui était pratique à calculer dans les décennies précédentes et avancer dans celles qui ont suivi.
En 1973, notre capacité à générer, stocker, transférer et traiter des données était suffisamment limitée pour en faire 10! un chiffre raisonnable "loin" pour lequel tirer. Je doute que Knuth (ou n'importe qui d'autre, d'ailleurs) aurait pu prédire les améliorations exponentielles de presque tout ce que nous avons apprécié depuis, mais les factorielles correspondent bien aux chiffres réels.
Je l'ai vu de première main: il y a une décennie, j'ai travaillé sur un projet où nous développions des moyens de stocker et de traiter environ 50 millions d'enregistrements tout en réfléchissant à la façon dont nous ferions un ordre de grandeur de plus. Une décennie plus tard, je fais un projet similaire. Mes chiffres cibles ont changé, le tout de manière factorielle:
2002 2012
Small Test ....... 9! / 362K ... 10! / 3.6M
Large Test ....... 10! / 3.6M ... 11! / 40M
Capacity Goal .... 11! / 40M ... 12! / 479M
Capacity Dream ... 12! / 479M ... 13! / 6.3B
Les groupes qui réalisent les deux projets se sont entendus sur des chiffres beaucoup plus ronds que ceux-ci, mais les factoriels ne sont pas très éloignés. Les Google et les Facebook du monde ont les ressources pour faire le genre de choses dont mon projet actuel rêve seulement, mais d'où je suis assis, 13!
dans une décennie ou moins, cela ne semble pas si loin.
Je ne pensais pas à de grandes quantités de données en 1992, mais avec le recul, j'aurais probablement examiné tout un facteur de moins.