Questions marquées «proof»

Théorie mathématique des statistiques, concernée par les définitions formelles et les résultats généraux.

5
Comment exactement les statisticiens ont-ils accepté d'utiliser (n-1) comme estimateur sans biais pour la variance de population sans simulation?
La formule de calcul de la variance a au dénominateur:( n - 1 )(n−1)(n-1) s2= ΣNi = 1( xje- x¯)2n - 1s2=∑i=1N(xi−x¯)2n−1s^2 = \frac{\sum_{i=1}^N (x_i - \bar{x})^2}{n-1} Je me suis toujours demandé pourquoi. Cependant, lire et regarder quelques bonnes vidéos sur le "pourquoi", il semble que soit un bon estimateur …



3

4
Problème avec la preuve de l'attente conditionnelle comme meilleur prédicteur
J'ai un problème avec la preuve de E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X)∈arg⁡ming(X)E[(Y−g(X))2]E(Y|X) \in \arg \min_{g(X)} E\Big[\big(Y - g(X)\big)^2\Big] qui révèlent très probablement une incompréhension plus profonde des attentes et des attentes conditionnelles. La preuve que je connais va comme suit (une autre version de cette preuve peut être trouvée ici ) ===argming(X)E[(Y−g(x))2]argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]arg⁡ming(X)E[(Y−g(x))2]=arg⁡ming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]=arg⁡ming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]=arg⁡ming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]\begin{align*} &\arg \min_{g(X)} …




2
Dériver la distribution bivariée de Poisson
J'ai récemment rencontré la distribution bivariée de Poisson, mais je suis un peu confus quant à la façon de la dériver. La distribution est donnée par: P(X=x,Y=y)=e−(θ1+θ2+θ0)θx1x!θy2y!∑i=0min(x,y)(xi)(yi)i!(θ0θ1θ2)iP(X=x,Y=y)=e−(θ1+θ2+θ0)θ1xx!θ2yy!∑i=0min(x,y)(xi)(yi)i!(θ0θ1θ2)iP(X = x, Y = y) = e^{-(\theta_{1}+\theta_{2}+\theta_{0})} \displaystyle\frac{\theta_{1}^{x}}{x!}\frac{\theta_{2}^{y}}{y!} \sum_{i=0}^{min(x,y)}\binom{x}{i}\binom{y}{i}i!\left(\frac{\theta_{0}}{\theta_{1}\theta_{2}}\right)^{i} D'après ce que je peux comprendre, le terme θ0θ0\theta_{0} est une mesure de corrélation …

2
La somme de deux produits normaux est Laplace?
Il semble que si Xi∼N(0,1)Xi∼N(0,1)X_i \sim N(0,1) , alors X1X2+X3X4∼Laplace(0,1)X1X2+X3X4∼Laplace(0,1)X_1 X_2 + X_3 X_4 \sim \mathrm{Laplace(0,1)} J'ai vu des articles sur les formes quadratiques arbitraires, ce qui se traduit toujours par des expressions chi-carré non centrales horribles. La relation simple ci-dessus ne me semble pas du tout évidente, alors (si …


3
Question sur une preuve d'équation normale
Comment pouvez-vous prouver que les équations normales: ont une ou plusieurs solutions sans supposer que X est inversible?(XTX)β=XTY(XTX)β=XTY(X^TX)\beta = X^TY Ma seule supposition est que cela a quelque chose à voir avec l'inverse généralisé, mais je suis totalement perdu.
11 regression  proof 


1
Formule d'estimation de régression quantile
J'ai vu deux représentations différentes de l'estimateur de régression quantile qui sont Q(βq)=∑i:yi≥x′iβnq∣yi−x′iβq∣+∑i:yi&lt;x′iβn(1−q)∣yi−x′iβq∣Q(βq)=∑i:yi≥xi′βnq∣yi−xi′βq∣+∑i:yi&lt;xi′βn(1−q)∣yi−xi′βq∣Q(\beta_{q}) = \sum^{n}_{i:y_{i}\geq x'_{i}\beta} q\mid y_i - x'_i \beta_q \mid + \sum^{n}_{i:y_{i}< x'_{i}\beta} (1-q)\mid y_i - x'_i \beta_q \mid et Q(βq)=∑i=1nρq(yi−x′iβq),ρq(u)=ui(q−1(ui&lt;0))Q(βq)=∑i=1nρq(yi−xi′βq),ρq(u)=ui(q−1(ui&lt;0))Q(\beta_q) = \sum^{n}_{i=1} \rho_q (y_i - x'_i \beta_q), \hspace{1cm} \rho_q(u) = u_i(q - 1(u_i < 0 )) où …

3
Le concept de «prouvé statistiquement»
Lorsque les informations parlent de choses «prouvées statistiquement», utilisent-elles correctement un concept bien défini de statistiques, l'utilisent-elles mal ou utilisent-elles simplement un oxymore? J'imagine qu'une «preuve statistique» n'est pas en fait quelque chose qui est effectué pour prouver une hypothèse, ni une preuve mathématique, mais plutôt un «test statistique».
10 inference  proof 

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.