Quelle est la caractérisation la plus surprenante de la distribution gaussienne (normale)?


52

Une distribution gaussienne normalisée sur peut être définie en donnant explicitement sa densité: 1R

12πex2/2

ou sa fonction caractéristique.

Comme rappelé dans cette question, il s'agit également de la seule distribution pour laquelle la moyenne et la variance de l'échantillon sont indépendantes.

Quelles sont les autres caractérisations alternatives surprenantes des mesures gaussiennes que vous connaissez? J'accepterai la réponse la plus surprenante

Réponses:


39

Ce qui me surprend le plus est celui de la moyenne et de la variance de l'échantillon, mais voici une autre caractérisation (peut-être) surprenante: si X et Y sont IID avec une variance finie avec X+Y et XY indépendants, alors X et Y sont normaux.

Intuitivement, nous pouvons généralement identifier le moment où les variables ne sont pas indépendantes avec un diagramme de dispersion. Imaginez donc un diagramme de dispersion de paires qui semble indépendant. Maintenant, faites une rotation de 45 degrés et regardez à nouveau: si elle a toujours l’ air indépendante, alors les coordonnées X et Y doivent être individuellement normales (tout cela est vague, bien sûr).(X,Y)XY

Pour voir pourquoi le bit intuitif fonctionne, jetez un oeil à

[cos45sin45sin45cos45][xy]=12[xyx+y]

3
Jay - il s’agit essentiellement d’une réaffirmation de l’indépendance de la moyenne et de la variance. est une moyenne redimensionnée et est un écart-type redimensionné. X+YXY
probabilityislogic

5
@probabilityislogic - Je aime l'intuition de ce que vous avez dit, mais je ne pense pas que ce soit exactement un redressement parce que est pas exactement une remise à l' échelle de la SD: SD les oublie le signe. Donc, l’indépendance de la moyenne et du SD résulte de l’indépendance de X + Y , X - Y (lorsque n = 2 ), mais pas l’inverse. C'est peut-être ce que vous vouliez dire par "fondamentalement". En tout cas, c'est bon. XYX+YXYn=2

4
Où pouvons-nous trouver des preuves pour cette propriété?
Royi

1
@Royi voir 16. ici . Pour (a), notez que . Pour (b) noter que φ ( 2 t ) φ ( - 2 t ) = ( φ ( t ) φ ( - t ) ) 4 qui aspire à la substitution ψ ( t ) = φ ( t ) φ ( -2X=(X+Y)+(XY)φ(2t)φ(2t)=(φ(t)φ(t))4 à partirlaquelle vous ψ ( t ) = ψ 2 2 n ( tψ(t)=φ(t)φ(t). Siφ(t0)=0, alors ψ(t0)=0, donc pour toutn,ψ(t0ψ(t)=ψ22n(t2n)φ(t0)=0ψ(t0)=0net il existe une séquencetntelle quetn0etφ(tn)=0pour toutn, ce qui contredit la continuité deφen0. (c) est tout droit [suite]ψ(t02n)=0tntn0φ(tn)=0nφ0
Gabriel Romon

1
Pour (d), . Notez queφ(t)=1-t2γ(t)=γ2n(t2n), d'oùγ(t)=1+o(t2). Branchez ceci à l'égalité précédente et prouvez que pourtfixé,ce qui impliquepour tout. Cela signifie queest réel et que l'égalité en (a) se transforme en ce qui est demandé. Encore une fois, prouver queet utiliserpour obtenirφ(t)=1t22+o(t2)γ(t)=1+o(t2)tlimnγ2n(t2n)=1t & phiv & phiv ( tγ(t)=1tφφ(t)=φ22n(t2n)φ(t)=1t22+o(t2)φ(t)=e-t2/2Xlimnφ22n(t2n)=et2/2 . Par conséquent, et est normal. φ(t)=et2/2X
Gabriel Romon


22

Un livre entier a été écrit à ce sujet: "Caractérisations de la loi de probabilité normale", AM Mathai & G. Perderzoli. Un bref compte rendu de JASA (décembre 1978) mentionne ce qui suit:

Soit des variables aléatoires indépendantes. Alors et sont indépendants, où , si et seulement si [sont] normalement distribués.Σ n i = 1 a i x i Σ n i = 1 b i x i a iX1,,Xni=1naixii=1nbixiX iaibi0Xi


3
il doit y avoir une condition telle que manquante? Par exemple, si n = 2 et ne sont pas indépendants. a i = b i = 1 X 1 + X 2 X 1 + X 2<a,b>=0ai=bi=1 X1+X2X1+X2
robin girard

1
@Robin bonne prise. J'ai également été intrigué par les quantificateurs implicites. Malheureusement, tout ce à quoi j'ai accès, c'est cette citation (titillante) de la critique, pas le livre. Ce serait amusant de le trouver dans une bibliothèque et de le parcourir ...
whuber

Cela ressemble à une généralisation de la réponse de G. Jay Kerns (actuellement n ° 1).
vqv

Je pense que vous recherchez peut-être le papier de Lukacs & King (1954). Voir cette réponse sur math.SE avec un lien vers le document susmentionné.
cardinal

2
Où cette proposition dit "où " signifie-t-elle pour CHAQUE ensemble de scalaires où "? Je déteste voir" où "utilisé à la place de" pour chaque "ou" pour certains "." Où "devrait être utilisé pour expliquer sa notation, comme dans" où est la vitesse de la lumière et est le produit intérieur brut ", etc.a i b i0 c gaibi0aibi0cg
Michael Hardy

17

Les distributions gaussiennes sont les seules distributions à somme stable avec une variance finie.


8
Qu'ils soient somme stables et qu'ils soient uniques avec une variance finie nous sont tous deux imposés par le CLT. La partie intéressante de cette affirmation est qu'il existe d' autres distributions stables à la somme!
whuber

1
@ Whuber: en effet! cette caractérisation est un peu déformée et les autres distributions à somme stable sont peut-être plus curieuses.
Shabbychef

@ Whuber en fait, je ne vois pas comment le CLT implique ce fait. Cela semble seulement nous dire que asymptotiquement , la somme des normales est normale et non pas qu'une somme finie est normalement distribuée. Ou devez-vous également utiliser le théorème de Slutsky?
Shabbychef

3
En adoptant la normalisation habituelle, une somme de deux normales est la somme d’une distribution normale X_0 plus la distribution limite d’une série X_1, X_2, ..., d’où la somme correspond à la distribution limite de X_0, X_1, ..., qui par le Lindeberg-Levy CLT est normal.
whuber

17

Le lemme de Stein fournit une caractérisation très utile. est gaussien standard si et seulement si E f ' ( Z ) = E Z f ( Z ) pour toutes les fonctions absolument continues f avec E | f ' ( Z ) | < .Z

Ef(Z)=EZf(Z)
fE|f(Z)|<

12

Théorème [Herschel-Maxwell]: Soit un vecteur aléatoire pour lequel (i) les projections dans des sous-espaces orthogonaux sont indépendantes et (ii) la distribution de Z ne dépend que de la longueur Z . Alors Z est normalement distribué.ZRnZZZ

Cité par George Cobb dans Teaching statistics: Quelques tensions importantes (Chilean J. Statistics, vol. 2, n ° 1, avril 2011), p. 54

Cobb utilise cette caractérisation comme point de départ pour dériver les , et , sans utiliser le calcul (ou beaucoup de théorie de probabilité). t Fχ2tF


9

Soit et ξ deux variables aléatoires indépendantes ayant une distribution symétrique commune telle queηξ

P(|ξ+η2|t)P(|ξ|t).

Alors ces variables aléatoires sont gaussiennes. ( De toute évidence, si le et η sont centrées gaussienne, il est vrai.)ξη

C'est le théorème de Bobkov-Houdre


9

Ce n'est pas une caractérisation mais une conjecture, qui remonte à 1917 et est due à Cantelli:

Si est une fonction positive sur R et X et Y sont N ( 0 , 1 ) variables aléatoires indépendantes telles que X + f ( X ) Y soit normal, alors f est une constante presque partout.fRXYN(0,1)X+f(X)Yf

Mentionné par Gérard Letac ici .


c'est bien que vous en parliez! Je ne peux pas comprendre l'intuition, et vous?
robin girard

@robin C'est ce qui rend cette conjecture si spéciale: une déclaration complètement élémentaire, des approches évidentes qui échouent lamentablement (fonctions caractéristiques), et il ne reste rien à saisir ... Au fait, faut-il parier que la conjecture est vraie ou fausses? Même cela n'est pas évident (pour moi).
Le

2
Si Gérard Letac n'a pas réussi à le prouver, cela pourrait rester une conjecture ouverte pendant un bon moment ...!
Xi'an

@ Xi'an: Je suis entièrement d'accord, bien sûr. (Je ne savais pas que vous étiez en itinérance dans ces quartiers du Web ... Bonne nouvelle que vous soyez.)
Fait le

6
@ Xi'an Voici une pré - impression de Victor Kleptsyn et Aline Kurtzmann avec un contre-exemple à la conjecture de Cantelli. La construction utilise un nouvel outil, que les auteurs appellent le transport de masse brownien, et produit une fonction discontinue . Les auteurs affirment qu’ils croient que la conjecture de Cantelli est vraie si l’on demande que f est continu (la leur est un mélange de deux fonctions continues). ff
Avez

8

Supposons que l' on est l' estimation d' un paramètre de localisation en utilisant les données iid . Si ˉ x est l'estimateur du maximum de vraisemblance, alors la distribution d'échantillonnage est gaussienne. Selon la théorie des probabilités de Jaynes : La logique de la science, pages 202-4, c'est ainsi que Gauss l'a dérivé à l'origine.{x1,...,xn}x¯


Je ne suis pas sûr de comprendre cela comme une caractérisation de la distribution normale, alors il me manque probablement quelque chose. Et si nous avions des données de Poisson et voulions estimer ? Le MLE est ˉ x mais la distribution d'échantillonnage de ˉ x est pas gaussienne - d'une part, ˉ x doit être rationnelle; deuxièmement, si c’était gaussien, il en serait de même de x i mais c’est Poisson ( n μ ) . μx¯x¯x¯xiPoisson(nμ)
Silverfish

2
La moyenne de Poisson n'est pas un paramètre de localisation!
kjetil b halvorsen

6

Une caractérisation plus particulière de la distribution normale parmi la classe des distributions infiniment divisibles est présentée dans Steutel et Van Harn (2004) .

Un non-dégénéré variable aléatoire divisible à l' infini a une distribution normale si et seulement si elle satisfait - lim sup x log P ( | X | > x )X

lim supxlogP(|X|>x)xlog(x)=.

Ce résultat caractérise la distribution normale en terme de comportement en queue.


1
Une courte preuve de la limite indiquée va comme suit: Si est la normale standard, alors x P ( X > x ) / φ ( x ) 1 comme x , donc log P ( X > x ) - log φ ( x ) + log x 0 . Mais 2 log φ ( x ) - x 2XxP(X>x)/φ(x)1xlogP(X>x)logφ(x)+logx02logφ(x)x2et donc le résultat suit. Une ébauche approximative du cas de Poisson semble indiquer que la limite donnée est , mais je n'ai pas vérifié cela de trop près. λ
cardinal

6

Dans le contexte du lissage d'image (par exemple , l'espace d'échelle ), la gaussienne est le seul noyau séparable * à rotation symétrique.

Autrement dit, si nous avons besoin de [ x , y ] = r [ cos θ , sin θ ] , alors la symétrie de rotation nécessite F θ

F[x,y]=f[x]f[y]
[x,y]=r[cosθ,sinθ] ce qui équivaut àlog[f[x]]=cx.
Fθ=f[x]f[y]xθ+f[x]f[y]yθ=f[x]f[y]y+f[x]f[y]x=0f[x]xf[x]=f[y]yf[y]=const.
log[f[x]]=cx

Exiger que soit un noyau approprié requiert alors que la constante soit négative et que la valeur initiale soit positive, ce qui donne le noyau gaussien.f[x]


* Dans le contexte des distributions de probabilités, séparable signifie indépendant, tandis que dans le contexte du filtrage d'images, cela permet de réduire la convolution 2D en calculs à deux convolutions 1D.


2
+1 Mais cela ne découle-t-il pas d'une application immédiate du théorème de Herschel-Maxwell en 2D?
whuber

@ Whuber En effet, j'ai réussi à oublier votre réponse en parcourant ce fil!
amibe dit de réintégrer Monica le

@ Whuber Oui. Je n'avais pas lu en détail cet ancien fil de discussion et je ne faisais qu'ajouter cette réponse à la demande.
GeoMatt22

1
@ amoeba voir aussi ici .
GeoMatt22

3

Ejsmont [1] a récemment publié un article avec une nouvelle caractérisation du gaussien:

Laisser (X1,,Xm,Y) and (Xm+1,,Xn,Z)Xii=1naiXi+Y+Zi=1nai2aiR1m<nXicov(Xi,Y)=cov(Xi,Z)=0i{1,,n}

[1]. Ejsmont, Wiktor. "Une caractérisation de la distribution normale par l'indépendance d'un couple de vecteurs aléatoires." Statistics & Probability Letters 114 (2016): 1-5.


1
C'est une caractérisation délicate et fascinante. Merci d'avoir amélioré ce fil en le partageant!
whuber

1

Sa fonction caractéristique a la même forme que son pdf. Je ne suis pas sûr d'une autre distribution qui fait ça.


4
Voir cette réponse pour trouver des moyens de construire des variables aléatoires dont les fonctions caractéristiques sont les mêmes que leurs fichiers PDF.
Dilip Sarwate

-1

L'espérance plus moins l'écart type sont les points de selle de la fonction.


11
Ceci est une propriété de la distribution Normal, bien sûr, mais cela ne la caractérise pas, car beaucoup d'autres distributions possèdent également cette propriété.
whuber
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.