Voici un moyen beaucoup plus simple de le comprendre:
Vous pouvez considérer la distribution binomiale comme la «mère» de la plupart des distributions. La distribution normale n'est qu'une approximation de la distribution binomiale lorsque n devient suffisamment grand. En fait, Abraham de Moivre a essentiellement découvert la distribution normale en essayant d'approximer la distribution binomiale, car il devient rapidement incontrôlable de calculer la distribution binomiale à mesure que n croît, surtout lorsque vous n'avez pas d'ordinateur ( référence ).
La distribution de Poisson n'est également qu'une autre approximation de la distribution binomiale, mais elle est bien meilleure que la distribution normale lorsque n est grand et p est petit, ou plus précisément lorsque la moyenne est approximativement la même que la variance (rappelez-vous que pour la distribution binomiale, moyenne = np et var = np (1-p)) ( référence ). Pourquoi cette situation particulière est-elle si importante? Apparemment, cela fait beaucoup surface dans le monde réel et c'est pourquoi nous avons cette approximation "spéciale". L'exemple ci-dessous illustre des scénarios où l'approximation de Poisson fonctionne vraiment bien.
Exemple
Nous avons un centre de données de 100 000 ordinateurs. La probabilité qu'un ordinateur donné tombe en panne aujourd'hui est de 0,001. Donc en moyenne np = 100 ordinateurs tombent en panne dans le centre de données. Quelle est la probabilité que seulement 50 ordinateurs tombent en panne aujourd'hui?
Binomial: 1.208E-8
Poisson: 1.223E-8
Normal: 1.469E-7
En fait, la qualité d'approximation pour la distribution normale descend dans le drain lorsque nous allons dans la queue de la distribution, mais Poisson continue de tenir très bien. Dans l'exemple ci-dessus, considérons quelle est la probabilité que seulement 5 ordinateurs tombent en panne aujourd'hui?
Binomial: 2.96E-36
Poisson: 3.1E-36
Normal: 9.6E-22
Espérons que cela vous donne une meilleure compréhension intuitive de ces 3 distributions.