Il est bien connu que si vous lancez n balles dans n cases, le bin le plus chargé est très susceptible d'avoir balles dedans. En général, on peut poser des questions sur balles dans cases. Un article de RANDOM 1998 de Raab et Steger explore cela en détail, montrant qu'à mesure que augmente, la probabilité d'aller même un peu au-dessus de la valeur attendue de diminue rapidement. En gros, en fixant , ils montrent que la probabilité de voir plus de est .m > n nm / n r = m / n r + √ o(1)
Ce document est paru en 1998 et je n'ai rien trouvé de plus récent. Y a-t-il des résultats nouveaux et encore plus concentrés dans ce sens, ou y a-t-il des raisons heuristiques / formelles de soupçonner que c'est le meilleur qu'on puisse obtenir? Je dois ajouter qu'un article sur la variante à choix multiple co-écrit par Angelika Steger en 2006 ne cite pas non plus de travaux plus récents.
Mise à jour : En réponse au commentaire de Peter, permettez-moi de clarifier les choses que j'aimerais savoir. J'ai deux buts ici.
- Premièrement, j'ai besoin de savoir quelle référence citer, et il semble que ce soit le travail le plus récent à ce sujet.
- Deuxièmement, il est vrai que le résultat est assez serré dans la gamme r = 1. Je m'intéresse à la plage m >> n, et plus particulièrement au domaine où r pourrait être poly log n, ou même n ^ c. J'essaie de placer ce résultat dans un lemme que je prouve, et la limite spécifique de r contrôle d'autres parties de l'algorithme global. Je pense (mais je ne suis pas sûr) que la plage de r fournie par ce document pourrait suffire, mais je voulais juste m'assurer qu'il n'y avait pas de limite plus stricte (cela donnerait un meilleur résultat).