Comment dériver la distribution de Poisson de la distribution gamma?


8

Soit une séquence de variables aléatoires exponentielles avec le paramètre . La somme S_n = T_1 + T_2 + \ dots + T_n est une distribution Gamma. Maintenant, si je comprends bien, la distribution de Poisson est définie par N_t comme suit:T1,T2,λSn=T1+T2++TnNt

Nt=max{k:Skt}

Comment montrer formellement que Nt est une variable aléatoire de Poisson?

Toutes suggestions appréciées. J'ai essayé de trouver un certain nombre de preuves, mais je ne parviens pas à l'équation finale.

Références

http://en.wikipedia.org/wiki/Exponential_distribution

http://en.wikipedia.org/wiki/Gamma_distribution

http://en.wikipedia.org/wiki/Poisson_distribution


3
@ user862, les preuves que je connais d'emblée ne sont pas particulièrement directes. Durrett a une dérivation dans son livre de probabilités qui est assez propre. Cela prend 3-4 pages, je pense; qui, si vous avez lu l'un de ses livres, est une longue preuve selon ses critères. Resnick adopte une approche un peu plus abstraite dans son texte sur les processus stochastiques. La construction et l'utilisation de plus grands marteaux lui permettent cependant d'obtenir des résultats plus généraux. Ross a sans aucun doute un traitement dans son livre sur les processus stochastiques, mais je ne le connais pas très bien.
cardinal

J'ai trouvé la preuve dans le livre de Durrett. C'est expliqué très clairement. Merci pour les pointeurs.
user862

Réponses:


6

Je suis sûr que la preuve de Durrett est belle. Une solution simple à la question posée est la suivante.

Pourn1

P(Nt=n)=0tP(Sn+1>tSn=s)P(Snds)=0tP(Tn+1>ts)P(Snds)=0teλ(ts)λnsn1eλs(n1)!ds=eλtλn(n1)!0tsn1ds=eλt(λt)nn!

Pour nous avons .n=0P(Nt=0)=P(T1>t)=eλt

Cela ne prouve pas que est un processus de Poisson, ce qui est plus difficile, mais cela montre que la distribution marginale de est Poisson avec une moyenne .(Nt)t0Ntλt


3
(+1) Le recours aux densités conditionnelles n'est pas strictement nécessaire ici. Notez que et il suffit d'intégrer la densité de joint sur la région . Étant donné que et sont indépendants, il s'agit d'une entreprise simple. P(Nt=n)=P(Snt,Sn+1>t)=P(Snt,Sn+Tn+1>t){(sn,tn+1):0snt,tn+1>tsn}R2SnTn+1
cardinal

@cardinal - et comment la réponse de @ NRH n'est-elle pas simple? En fait, je dirais que c'est plus facile, car une seule intégration est requise.
probabilitéislogic

@probabilityislogic: Ma référence "simple" n'était qu'une remarque sur le calcul restant non affiché dans mon commentaire. Ce n'était pas un sens relatif en ce qui concerne la réponse de @ NRH.
cardinal

2
@probabilityislogic: Il y a beaucoup de théorie (supplémentaire) cachée dans les deux premières lignes de la preuve de @ NRH. Le point de mon commentaire était que nous pouvons obtenir le même résultat en utilisant uniquement les os nus des distributions de probabilité conjointes, à savoir uniquement la mesure du produit. C'est, à mon avis, une base de calcul fondamentalement plus simple que l'introduction de l'attente conditionnelle et la justification nécessaire pour passer de la ligne un à deux de la réponse de @ NRH. Je ne veux pas dire qu'en tant que critique, mon intention était simplement de fournir une méthode alternative.
cardinal
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.