La formule de calcul de la variance a au dénominateur:( n - 1 )(n−1)(n-1) s2= ΣNi = 1( xje- x¯)2n - 1s2=∑i=1N(xi−x¯)2n−1s^2 = \frac{\sum_{i=1}^N (x_i - \bar{x})^2}{n-1} Je me suis toujours demandé pourquoi. Cependant, lire et regarder quelques bonnes vidéos sur le "pourquoi", il semble que soit un bon estimateur …
Je ne parviens pas à calculer la formule de divergence KL en supposant deux distributions normales multivariées. J'ai résolu le cas univarié assez facilement. Cependant, cela fait un bon moment que je n'ai pas pris les statistiques mathématiques, alors j'ai du mal à les étendre au cas multivarié. Je suis …
Comme le dit la question - Est-il possible de prouver l'hypothèse nulle? D'après ma compréhension (limitée) de l'hypothèse, la réponse est non, mais je ne peux pas en donner une explication rigoureuse. La question a-t-elle une réponse définitive?
Fermé. Cette question est hors sujet . Il n'accepte pas actuellement de réponses. Voulez-vous améliorer cette question? Mettez à jour la question afin qu'elle soit sur le sujet pour la validation croisée. Fermé il y a 2 ans . J'utilise caret pour exécuter une forêt aléatoire validée de façon croisée …
J'ai un problème avec la preuve de E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X) \in \arg \min_{g(X)} E\Big[\big(Y - g(X)\big)^2\Big] qui révèlent très probablement une incompréhension plus profonde des attentes et des attentes conditionnelles. La preuve que je connais va comme suit (une autre version de cette preuve peut être trouvée ici ) ===argming(X)E[(Y−g(x))2]argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(X)E[(Y−g(x))2]=argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]=argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]=argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]\begin{align*} &\arg \min_{g(X)} …
Le texte de Wackerly et al énonce ce théorème "Soit et les fonctions génératrices de moments des variables aléatoires X et Y, respectivement. Si les deux fonctions génératrices de moments existent et pour toutes les valeurs de t, alors X et Y ont la même distribution de probabilité. " sans …
Extrait de Grimmet et Stirzaker : Montrer qu'il ne peut pas être le cas où U=X+YU=X+YU=X+Y où UUU est uniformément distribué sur [0,1] et et sont indépendants et identiques. Vous ne devez pas supposer que X et Y sont des variables continues.XXXYYY Une simple preuve de contradiction suffit pour le …
À partir de wikipedia , la corrélation de rang de Spearman est calculée en convertissant les variables X iXiX_i et Y iYiY_i en variables classées x ixix_i et y iyiy_i , puis en calculant la corrélation de Pearson entre les variables classées: Cependant, l'article poursuit en déclarant que s'il n'y …
J'ai récemment rencontré la distribution bivariée de Poisson, mais je suis un peu confus quant à la façon de la dériver. La distribution est donnée par: P(X=x,Y=y)=e−(θ1+θ2+θ0)θx1x!θy2y!∑i=0min(x,y)(xi)(yi)i!(θ0θ1θ2)iP(X=x,Y=y)=e−(θ1+θ2+θ0)θ1xx!θ2yy!∑i=0min(x,y)(xi)(yi)i!(θ0θ1θ2)iP(X = x, Y = y) = e^{-(\theta_{1}+\theta_{2}+\theta_{0})} \displaystyle\frac{\theta_{1}^{x}}{x!}\frac{\theta_{2}^{y}}{y!} \sum_{i=0}^{min(x,y)}\binom{x}{i}\binom{y}{i}i!\left(\frac{\theta_{0}}{\theta_{1}\theta_{2}}\right)^{i} D'après ce que je peux comprendre, le terme θ0θ0\theta_{0} est une mesure de corrélation …
Il semble que si Xi∼N(0,1)Xi∼N(0,1)X_i \sim N(0,1) , alors X1X2+X3X4∼Laplace(0,1)X1X2+X3X4∼Laplace(0,1)X_1 X_2 + X_3 X_4 \sim \mathrm{Laplace(0,1)} J'ai vu des articles sur les formes quadratiques arbitraires, ce qui se traduit toujours par des expressions chi-carré non centrales horribles. La relation simple ci-dessus ne me semble pas du tout évidente, alors (si …
Dans Elements of Statistical Learning , un problème est introduit pour mettre en évidence les problèmes de k-nn dans les espaces de grande dimension. Il y a NNN points de données qui sont uniformément distribués dans une boule d'unité ppp dimensionnelle. La distance médiane de l'origine au point de données …
Comment pouvez-vous prouver que les équations normales: ont une ou plusieurs solutions sans supposer que X est inversible?(XTX)β=XTY(XTX)β=XTY(X^TX)\beta = X^TY Ma seule supposition est que cela a quelque chose à voir avec l'inverse généralisé, mais je suis totalement perdu.
Actuellement coincé là-dessus, je sais que je devrais probablement utiliser l'écart moyen de la distribution binomiale mais je ne peux pas le comprendre.
Lorsque les informations parlent de choses «prouvées statistiquement», utilisent-elles correctement un concept bien défini de statistiques, l'utilisent-elles mal ou utilisent-elles simplement un oxymore? J'imagine qu'une «preuve statistique» n'est pas en fait quelque chose qui est effectué pour prouver une hypothèse, ni une preuve mathématique, mais plutôt un «test statistique».
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.