Les moments sont des résumés des caractéristiques des variables aléatoires (p. Ex. Emplacement, échelle). À utiliser également pour les moments fractionnaires.
Je remarque dans les méthodes statistiques / machine learning, une distribution est souvent approximée par un gaussien, puis que le gaussien est utilisé pour l'échantillonnage. Ils commencent par calculer les deux premiers moments de la distribution et les utilisent pour estimer et . Ensuite, ils peuvent échantillonner à partir de …
Donc, j'ai un processus aléatoire générant distribution log-normale des variables aléatoires . Voici la fonction de densité de probabilité correspondante:XXX Je voulais estimer la distribution de quelques instants de cette distribution d'origine, disons le 1er moment: la moyenne arithmétique. Pour ce faire, j'ai dessiné 100 variables aléatoires 10000 fois afin …
Quels tests sont disponibles pour tester deux échantillons indépendants pour l'hypothèse nulle qu'ils proviennent de populations avec le même biais? Il existe un test classique à 1 échantillon pour savoir si le biais est égal à un nombre fixe (le test implique le 6ème moment de l'échantillon!); y a-t-il une …
Dans les statistiques circulaires, la valeur attendue d'une variable aléatoire avec des valeurs sur le cercle S est définie comme m 1 ( Z ) = ∫ S z P Z ( θ ) d θ (voir wikipedia ). Il s'agit d'une définition très naturelle, tout comme la définition de …
Quelqu'un peut-il fournir une intuition sur la raison pour laquelle les moments supérieurs d'une distribution de probabilité pXpXp_X , comme les troisième et quatrième moments, correspondent respectivement à l'asymétrie et au kurtosis? Plus précisément, pourquoi l'écart par rapport à la moyenne élevée au troisième ou au quatrième pouvoir se traduit-il …
J'ai un très grand ensemble de données et il manque environ 5% de valeurs aléatoires. Ces variables sont corrélées entre elles. L'exemple de jeu de données R suivant n'est qu'un exemple de jouet avec des données corrélées factices. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = …
Y a-t-il un analogue aux inégalités du moment supérieur de Tchebychev dans le cas unilatéral? L'inégalité de Chebyshev-Cantelli ne semble fonctionner que pour la variance, tandis que l'inégalité de Chebyshev peut facilement être produite pour tous les exposants. Quelqu'un connaît-il une inégalité unilatérale en utilisant les moments supérieurs?
Je pensais à la signification de la famille à l'échelle de l'emplacement. Je crois comprendre que pour chaque XXX membre d'un emplacement famille à grande échelle avec des paramètres emplacement et échelle, la distribution de ne dépend pas de tous les paramètres et il est le même pour tous appartenant …
Le rrr ème moment d'une variable aléatoire XXX est fini si E(|Xr|)<∞E(|Xr|)<∞ \mathbb E(|X^r|)< \infty J'essaie de montrer que pour tout entier positif s<rs<rs<r , alors le sss ème instant E[|Xs|]E[|Xs|]\mathbb E[|X^s|] est également fini.
J'ai une situation où je peux estimer (les premiers) moments d'un ensemble de données, et je voudrais l'utiliser pour produire une estimation de la fonction de densité.kkk J'ai déjà rencontré la distribution Pearson , mais j'ai réalisé qu'elle ne dépend que des 4 premiers moments (avec quelques restrictions sur les …
J'emploie l'estimateur habituel de , mais je remarque que mêmepetites valeurs aberrantes « » dans ma distribution empirique,savoirpetits pics loin du centre, affectent énormément. Existe-t-il un estimateur de kurtosis qui est plus robuste?K^=μ^4σ^4K^=μ^4σ^4\hat{K}=\frac{\hat{\mu}_4}{\hat{\sigma}^4}
Quelle est la meilleure façon d'approximer pour deux entiers donnés lorsque vous connaissez la moyenne , la variance , l'asymétrie et l'excès de kurtosis d'une distribution discrète , et il ressort clairement des mesures (non nulles) de la forme et qu'une approximation normale n'est pas appropriée?m , n μ σ …
Je suis curieux de savoir s'il existe une transformation qui modifie l'inclinaison d'une variable aléatoire sans affecter la kurtosis. Cela serait analogue à la façon dont une transformation affine d'un RV affecte la moyenne et la variance, mais pas le biais et le kurtosis (en partie parce que le biais …
Je calcule la covariance d'une distribution en parallèle et j'ai besoin de combiner les résultats distribués en gaussien singulier. Comment combiner les deux? L'interpolation linéaire entre les deux fonctionne presque, si elles sont distribuées et dimensionnées de manière similaire. Wikipedia fournit un forumla en bas pour la combinaison mais cela …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.