Questions marquées «normal-distribution»

La distribution normale ou gaussienne a une fonction de densité qui est une courbe symétrique en forme de cloche. C'est l'une des distributions les plus importantes en statistique. Utilisez la balise [normality] pour poser des questions sur les tests de normalité.



2
Pourquoi le ρ de Pearson n'est-il qu'une mesure exhaustive de l'association si la distribution conjointe est normale à plusieurs variables?
Cette affirmation a été soulevée dans la première réponse à cette question . Je pense que la question du «pourquoi» est suffisamment différente pour qu'elle mérite un nouveau fil. Googler "mesure exhaustive de l'association" n'a produit aucun résultat, et je ne sais pas ce que signifie cette expression.

4
Valeur attendue de la médiane de l'échantillon compte tenu de la moyenne de l'échantillon
Soit YYY la médiane et soit X¯X¯\bar{X} la moyenne d'un échantillon aléatoire de taille n=2k+1n=2k+1n=2k+1 d'une distribution N(μ,σ2)N(μ,σ2)N(\mu,\sigma^2) . Comment puis-je calculer E(Y|X¯=x¯)E(Y|X¯=x¯)E(Y|\bar{X}=\bar{x}) ? Intuitivement, en raison de l'hypothèse de normalité, il est logique de prétendre que E(Y|X¯=x¯)=x¯E(Y|X¯=x¯)=x¯E(Y|\bar{X}=\bar{x})=\bar{x} et c'est effectivement la bonne réponse. Cela peut-il être montré avec rigueur? …

3
Cholesky versus eigendecomposition pour le prélèvement d'échantillons à partir d'une distribution normale multivariée
Je voudrais dessiner un échantillon . Wikipedia suggère d'utiliser soit une composition de Cholesky soit une composition Eigend , c'est-à-dire Σ = D 1 D T 1 ou Σ = Q Λ Q Tx∼N(0,Σ)x∼N(0,Σ)\mathbf{x} \sim N\left(\mathbf{0}, \mathbf{\Sigma} \right)Σ=D1DT1Σ=D1D1T \mathbf{\Sigma} = \mathbf{D}_1\mathbf{D}_1^T Σ=QΛQTΣ=QΛQT \mathbf{\Sigma} = \mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^T Et donc l'échantillon peut être …

1
Comment simuler à partir d'une copule gaussienne?
Supposons que j'ai deux distributions marginales univariées, disons FFF et GGG , à partir desquelles je peux simuler. Maintenant, construisons leur distribution conjointe en utilisant une copule gaussienne , notée C(F,G;Σ)C(F,G;Σ)C(F,G;\Sigma) . Tous les paramètres sont connus. Existe-t-il une méthode non-MCMC pour simuler à partir de cette copule?


5
Comparaison de la variance des observations appariées
J'ai NNN observations appariées ( , ) tirées d'une distribution inconnue commune, qui a des premier et deuxième moments finis, et est symétrique autour de la moyenne.XiXiX_iYiYiY_i Soit l'écart type de (inconditionnel à ), et même pour Y. Je voudrais tester l'hypothèse X Y σ YσXσX\sigma_XXXXYYYσYσY\sigma_Y H0H0H_0 :σX=σYσX=σY\sigma_X = \sigma_Y …

5
Comment la distribution d'échantillonnage des moyennes de l'échantillon se rapproche-t-elle de la moyenne de la population?
J'essaie d'apprendre les statistiques parce que je trouve que c'est tellement répandu que cela m'interdit d'apprendre certaines choses si je ne les comprends pas correctement. J'ai du mal à comprendre cette notion de distribution d'échantillonnage des moyennes d'échantillonnage. Je ne comprends pas comment certains livres et sites l'ont expliqué. Je …


5
Erreur d'approximation de l'intervalle de confiance pour la moyenne lorsque
Soit {Xi}ni=1{Xi}i=1n\{X_i\}_{i=1}^n une famille de variables aléatoires iid prenant des valeurs dans [0,1][0,1][0,1] , ayant une moyenne μμ\mu et une variance σ2σ2\sigma^2 . Un intervalle de confiance simple pour la moyenne, utilisant σσ\sigma chaque fois qu'elle est connue, est donné par P(|X¯−μ|>ε)≤σ2nε2≤1nε2(1).P(|X¯−μ|>ε)≤σ2nε2≤1nε2(1). P( | \bar X - \mu| > \varepsilon) …

1
Avantages de Box-Muller par rapport à la méthode CDF inverse pour simuler une distribution normale?
Afin de simuler une distribution normale à partir d'un ensemble de variables uniformes, il existe plusieurs techniques: L'algorithme de Box-Muller , dans lequel on échantillonne deux variables uniformes indépendantes sur et les transforme en deux distributions normales standard indépendantes via: (0,1)(0,1)(0,1)Z0=−2lnU1−−−−−−√cos(2πU0)Z1=−2lnU1−−−−−−√sin(2πU0)Z0=−2lnU1cos(2πU0)Z1=−2lnU1sin(2πU0) Z_0 = \sqrt{-2\text{ln}U_1}\text{cos}(2\pi U_0)\\ Z_1 = \sqrt{-2\text{ln}U_1}\text{sin}(2\pi U_0) la …

2
Simulation de tirages à partir d'une distribution uniforme à l'aide de tirages à partir d'une distribution normale
J'ai récemment acheté une ressource d'entrevue en science des données dans laquelle l'une des questions de probabilité était la suivante: Étant donné les tirages d'une distribution normale avec des paramètres connus, comment pouvez-vous simuler les tirages d'une distribution uniforme? Mon processus de pensée original était que, pour une variable aléatoire …


1
Quelle est l'intuition derrière les échantillons échangeables sous l'hypothèse nulle?
Les tests de permutation (également appelés test de randomisation, test de re-randomisation ou test exact) sont très utiles et s'avèrent utiles lorsque l'hypothèse de distribution normale requise par exemple t-testn'est pas remplie et lorsque la transformation des valeurs par classement des un test non paramétrique comme Mann-Whitney-U-testcela entraînerait la perte …
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.