FINIS ième instant pour un vecteur aléatoire


9

Si où le support de est . Donc, . Disons alors que je suppose que a moments finis. Lorsque , je sais que ce que des moyens où est la densité associée de . Quel est l'équivalent mathématique de supposer que a moments finis lorsque ?XFXRpX=(X1,X2,,Xp)Xkp=1

Rxkf(x)dx<,
f(x)FXkp>1

Dans ce lien, à la page 2, les auteurs définissent le ème moment comme où \ | \ cdot \ | est la norme euclidienne.k

EXk=Xkf(x)dx,

La réponse de Glen_b suggère ici que le k ème moment serait

x1kx2kxpkf(x)dx.

Est-ce que supposer que l'un est fini implique que l'autre est fini?


Avez-vous vu cette langue utilisée pour p>1 quelque part? Essentiellement pour p>1 les moments seront des tenseurs d'ordre kth . Donc pour k=1 vous avez un vecteur moyen, pour k=2 vous avez une matrice de (co-) variance, pour k=3 vous auriez un tenseur de "skewness" d'ordre 3rd , et ainsi de suite. (En supposant des moments sur la moyenne, pour k>1 )
GeoMatt22

@ GeoMatt22 C'est exact. Oui, j'ai vu la langue utilisée. Par exemple, ici, ils parlent de 2+δ moments finis delta d'un vecteur aléatoire.
Greenparker

Peut-être que le sens serait que toutes les entrées du tenseur de moment sont finies?
GeoMatt22

@Greenparker pourriez-vous citer ce passage dans le texte? Je ne le trouve pas.
ekvall

@ Student001 Oups désolé, mauvais lien. Voici le bon lien. Regardez la déclaration du théorème 4, page 6.
Greenparker

Réponses:


5

La réponse est négative, mais le problème peut être résolu.

Pour voir ce qui ne va pas, laissez avoir une distribution de Student t avec deux degrés de liberté. Ses propriétés saillantes sont que est fini mais . Considérons la distribution bivariée de . Soit son élément de distribution (qui est singulier: il n'est supporté que sur la diagonale ). Le long de la diagonale, , d'oùXE(|X|)E(|X|2)=(X,X)f(x,y)dxdyx=y||(x,y)||=|x|2

E(||(X,X)||1)=E(2|X|)<

tandis que

x1y1f(x,y)dxdy=x2f(x,x)dx=.

Des calculs analogues en dimensions doivent indiquer clairement quep

|x1|k|x2|k|xp|kf(x1,,xp)dx1dxp

est vraiment un moment d'ordre , pas . Pour plus d'informations sur les moments multivariés, veuillez voir Soit un vecteur aléatoire. Les èmes moments de compte? .pkkYkY


Pour savoir quelles devraient être les relations entre les moments multivariés et les moments de la norme, nous aurons besoin de deux inégalités. Soit tout vecteur à dimensions et soit des nombres positifs. Écrivez pour leur somme (ce qui implique pour tout ). Soit n'importe quel nombre positif (dans l'application, pour la norme euclidienne, mais il s'avère qu'il n'y a rien de spécial dans la valeur ). Comme d'habitude, écrivezx=(x1,,xp)pk1,k2,,kpk=k1+k2+kpki/k1iq>0q=22

||x||q=(i|xi|q)1/q.

Tout d'abord, appliquons l'inégalité AM-GM aux nombres non négatifs avec les poids . Cela affirme que la moyenne géométrique pondérée ne peut pas dépasser la moyenne arithmétique pondérée:|xi|qki

(i(|xi|q)ki)1/k1kiki|xi|q.

Surestimez le côté droit en remplaçant chaque par et prenez la puissance des deux côtés:ki/k1k/q

(1)i|xi|ki=((i(|xi|q)ki)1/k)k/q(i|xi|q)k/q=||x||qk.

Maintenant, surestimons en remplaçant chaque terme par le plus grand d'entre eux, :||x||q|xi|qmax(|xi|q)=max(|xi|)q

||x||q(imax(|xi|q))1/q=(pmax(|xi|)q)1/q=p1/qmax(|xi|).

Prendre puissances donnekth

(2)||x||qkpk/qmax(|xi|k)pk/qi|xi|k.

En termes de notation, écrivez

μ(k1,k2,,kp)=|x1|k1|x2|k2|xp|kpf(x)dx.

C'est le moment de l'ordre(k1,k2,,kp) (et l'ordre total ). En intégrant contre , l'inégalité établitkf(1)

(3)μ(k1,,kp)||x||qkf(x)dx=E(||X||qk)

et l'inégalité donne(2)

(4)E(||X||qk)pk/q(μ(k,0,,0)+μ(0,k,0,,0)++μ(0,,0,k)).

Son côté droit est, jusqu'à un multiple constant, la somme des moments univariés . Ensemble, et montrentkth(3)(4)

  • La finitude de tous les moments univariés implique la finitude de .kthE(||X||qk)

  • La finitude de implique la finitude de tous les pour lesquels .E(||X||qk)μ(k1,,kp)k1++kp=k

En effet, ces deux conclusions se combinent comme un syllogisme pour montrer que la finitude des moments univariés d'ordre implique la finitude de tous les moments multivariés d'ordre total .kk

Donc,

Pour tout , le moment de la norme est fini si et seulement si tous les moments d'ordre total sont fini.q>0kthLqE(||X||qk)k


Les moments supérieurs doivent être considérés comme des tenseurs et donc des normes de tenseurs.
Henry.L

@Henry Pourriez-vous expliquer comment et pourquoi ce serait une considération applicable dans ce fil?
whuber

Bonjour, veuillez voir ma réponse ci-dessous.
Henry.L

2

La réponse de @whuber est correcte et bien composée.

J'ai écrit ce fil uniquement pour expliquer pourquoi un tel problème peut être mieux traité dans le langage des tenseurs. Je pensais auparavant que le point de vue tenseur est largement accepté dans la communauté des statistiques, maintenant je sais que ce n'est pas le cas.

Aux pages 46 à 47 de [McCullagh], il a expliqué comment nous pouvions voir les moments comme des tenseurs. Je l'ai expliqué essentiellement en suivant ses paroles. Soit un vecteur aléatoire, et nous pouvons discuter de ses moments (centraux) . Et si nous prenons des transformations affines (de manière équivalente, nous pouvons l'écrire en notation matricielle dans l'espace de probabilité, puis le moment (central) résultant de estX=(X1,Xp)κi,j=E(XiEXi)(XjEXj)Yr=ArX+brY=AX+b)Yr,Ys

κr,s=YrXiYsXjκi,j
par formule de transformation. Le moment se comporte donc comme un tenseur contravariant (0,1). Si nous acceptons une telle vue tensorielle, alors la norme / les moments d'une variable aléatoire peuvent être traités comme une norme tensorielle. Donc, en fait, la norme du tenseur multi-indice de l'ordre le plus élevé ne limite pas nécessairement la norme du tenseur multi-indice d'ordre inférieur. Maintenant que le tenseur est donné par des opérateurs différentiels de premier ordre, la norme du tenseur de Sobolev entre naturellement en jeu, par exemple dans les ondelettes. Et il existe de nombreux contre-exemples selon lesquels la norme d'ordre le plus élevé ne lie pas les normes d'ordre inférieur dans les espaces de Sobolev-Besov. ( Post MO )Lp

Quant à la raison pour laquelle nous devrions adopter un tel point de vue, l'histoire est beaucoup plus longue, mais un bref commentaire suit.

La référence classique pour établir ce point de vue est [McCullagh] et, par la suite, des travaux dispersés dans la littérature sur le "machine learning". Mais l'origine d'une telle vision est en fait poursuivie beaucoup plus tôt dans les travaux bayésiens [Jeffereys]. Une telle vue aide certainement à la visualisation et a probablement motivé certaines recherches en analyse statistique de forme comme ces premiers travaux de Mardia.

Reference

[McCullagh] http://www.stat.uchicago.edu/~pmcc/tensorbook/ch1.pdf

[Jeffreys] Jeffreys, Harold. Tenseurs cartésiens. Cambridge University Press, 1931.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.