Questions marquées «normal-distribution»

La distribution normale ou gaussienne a une fonction de densité qui est une courbe symétrique en forme de cloche. C'est l'une des distributions les plus importantes en statistique. Utilisez la balise [normality] pour poser des questions sur les tests de normalité.

5
Comment effectuer l'imputation de valeurs dans un très grand nombre de points de données?
J'ai un très grand ensemble de données et il manque environ 5% de valeurs aléatoires. Ces variables sont corrélées entre elles. L'exemple de jeu de données R suivant n'est qu'un exemple de jouet avec des données corrélées factices. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 




2
Intuition derrière la fonction de densité des distributions t
J'étudie la distribution t de Student et j'ai commencé à me demander comment dériverait la fonction de densité des distributions t (de wikipedia, http://en.wikipedia.org/wiki/Student%27s_t-distribution ): F( t ) = Γ ( v + 12)v π--√Γ ( v2)( 1 + t2v)- v + 12f(t)=Γ(v+12)vπΓ(v2)(1+t2v)−v+12f(t) = \frac{\Gamma(\frac{v+1}{2})}{\sqrt{v\pi}\:\Gamma(\frac{v}{2})}\left(1+\frac{t^2}{v} \right)^{-\frac{v+1}{2}} où est le degré …


2
Lorsque les données ont une distribution gaussienne, combien d'échantillons la caractériseront?
Les données gaussiennes distribuées dans une seule dimension nécessitent deux paramètres pour la caractériser (moyenne, variance), et la rumeur veut qu'une trentaine d'échantillons sélectionnés au hasard est généralement suffisant pour estimer ces paramètres avec une confiance raisonnablement élevée. Mais que se passe-t-il lorsque le nombre de dimensions augmente? En deux …


2
Valeur attendue de la corrélation parasite
Nous tirons échantillons, chacun de taille , indépendamment d'une distribution normale .n ( μ , σ 2 )NNNnnn(μ,σ2)(μ,σ2)(\mu,\sigma^2) À partir des échantillons, nous choisissons ensuite les 2 échantillons qui ont la corrélation de Pearson la plus élevée (absolue).NNN Quelle est la valeur attendue de cette corrélation? Merci [PS Ce n'est …

1
Paquets Python pour travailler avec des modèles de mélange gaussiens (GMM)
Il semble y avoir plusieurs options disponibles pour travailler avec des modèles de mélange gaussiens (GMM) en Python. À première vue, il existe au moins: PyMix - http://www.pymix.org/pymix/index.php Outils pour la modélisation des mélanges PyEM - http://www.ar.media.kyoto-u.ac.jp/members/david/softwares/em/ qui fait partie de la boîte à outils Scipy et semble se concentrer …




3
Prior de Jeffreys pour une distribution normale avec une moyenne et une variance inconnues
Je lis sur les distributions antérieures et j'ai calculé Jeffreys a priori pour un échantillon de variables aléatoires normalement distribuées avec une moyenne et une variance inconnues. Selon mes calculs, ce qui suit vaut pour Jeffreys a priori: p(μ,σ2)=det(I)−−−−−√=det(1/σ2001/(2σ4))−−−−−−−−−−−−−−−−−−√=12σ6−−−−√∝1σ3.p(μ,σ2)=réet(je)=réet(1/σ2001/(2σ4))=12σ6∝1σ3. p(\mu,\sigma^2)=\sqrt{det(I)}=\sqrt{det\begin{pmatrix}1/\sigma^2 & 0 \\ 0 & 1/(2\sigma^4)\end{pmatrix}}=\sqrt{\frac{1}{2\sigma^6}}\propto\frac{1}{\sigma^3}. Ici,IjeIla matrice d'information de …


En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.