Questions marquées «self-study»

Un exercice de routine à partir d'un manuel, d'un cours ou d'un test utilisé pour une classe ou une auto-étude. La politique de cette communauté est de «fournir des conseils utiles» pour ces questions plutôt que des réponses complètes.

1
Construction de la distribution Dirichlet avec distribution Gamma
Soit X1,…,Xk+1X1,…,Xk+1X_1,\dots,X_{k+1} des variables aléatoires mutuellement indépendantes, ayant chacune une distribution gamma avec les paramètres αi,i=1,2,…,k+1αi,i=1,2,…,k+1\alpha_i,i=1,2,\dots,k+1 montrent que Yi=XiX1+⋯+Xk+1,i=1,…,kYi=XiX1+⋯+Xk+1,i=1,…,kY_i=\frac{X_i}{X_1+\cdots+X_{k+1}},i=1,\dots,k, ont une distribution commune commeDirichlet(α1,α2,…,αk;αk+1)Dirichlet(α1,α2,…,αk;αk+1)\text{Dirichlet}(\alpha_1,\alpha_2,\dots,\alpha_k;\alpha_{k+1}) PDF commun de (X1,…,Xk+1)=e−∑k+1i=1xixα1−11…xαk+1−1k+1Γ(α1)Γ(α2)…Γ(αk+1)(X1,…,Xk+1)=e−∑i=1k+1xix1α1−1…xk+1αk+1−1Γ(α1)Γ(α2)…Γ(αk+1)(X_1,\dots,X_{k+1})=\frac{e^{-\sum_{i=1}^{k+1}x_i}x_1^{\alpha_1-1}\dots x_{k+1}^{\alpha_{k+1}-1}}{\Gamma(\alpha_1)\Gamma(\alpha_2)\dots \Gamma(\alpha_{k+1})} .Puis pour trouver le pdf commun de(Y1,…,Yk+1)(Y1,…,Yk+1)(Y_1,\dots,Y_{k+1})je ne peux pas trouver jacobien ieJ(x1,…,xk+1y1,…,yk+1)J(x1,…,xk+1y1,…,yk+1)J(\frac{x_1,\dots,x_{k+1}}{y_1,\dots,y_{k+1}})



1
Une preuve de la stationnarité d'un AR (2)
Considérons un processus AR (2) centré sur la moyenne Xt=ϕ1Xt−1+ϕ2Xt−2+ϵtXt=ϕ1Xt−1+ϕ2Xt−2+ϵtX_t=\phi_1X_{t-1}+\phi_2X_{t-2}+\epsilon_t où est le processus de bruit blanc standard. Par souci de simplicité, permettez-moi d'appeler et . En me concentrant sur les racines de l'équation des caractéristiques, j'ai obtenu Les conditions classiques dans les manuels sont les suivantes:ϵtϵt\epsilon_tϕ1=bϕ1=b\phi_1=bϕ2=aϕ2=a\phi_{2}=az1,2=−b±b2+4a−−−−−−√2az1,2=−b±b2+4a2az_{1,2}=\frac{-b\pm\sqrt{b^2+4a}}{2a}{|a|&lt;1a±b&lt;1{|a|&lt;1a±b&lt;1\begin{cases}|a|<1 \\ a\pm b<1 …

2
Comment calculer la variance de l'estimateur OLS
Je sais que β0^=y¯−β1^x¯β0^=y¯−β1^x¯\hat{\beta_0}=\bar{y}-\hat{\beta_1}\bar{x} et voici jusqu'où je suis arrivé quand j'ai calculé la variance: Var(β0^)=Var(y¯−β1^x¯)=Var((−x¯)β1^+y¯)=Var((−x¯)β1^)+Var(y¯)=(−x¯)2Var(β1^)+0=(x¯)2Var(β1^)+0=σ2(x¯)2∑i=1n(xi−x¯)2Var(β0^)=Var(y¯−β1^x¯)=Var((−x¯)β1^+y¯)=Var((−x¯)β1^)+Var(y¯)=(−x¯)2Var(β1^)+0=(x¯)2Var(β1^)+0=σ2(x¯)2∑i=1n(xi−x¯)2\begin{align*} Var(\hat{\beta_0}) &= Var(\bar{y} - \hat{\beta_1}\bar{x}) \\ &= Var((-\bar{x})\hat{\beta_1}+\bar{y}) \\ &= Var((-\bar{x})\hat{\beta_1})+Var(\bar{y}) \\ &= (-\bar{x})^2 Var(\hat{\beta_1}) + 0 \\ &= (\bar{x})^2 Var(\hat{\beta_1}) + 0 \\ &= \frac{\sigma^2 (\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2} \end{align*} mais c'est tout …


3
Pourquoi avons-nous besoin de Bootstrapping?
Je lis actuellement "Toutes les statistiques" de Larry Wasserman et je suis perplexe à propos de quelque chose qu'il a écrit dans le chapitre sur l'estimation des fonctions statistiques des modèles non paramétriques. Il a écrit "Parfois, nous pouvons trouver l'erreur-type estimée d'une fonction statistique en effectuant quelques calculs. Cependant, …

4
Valeur attendue de la médiane de l'échantillon compte tenu de la moyenne de l'échantillon
Soit YYY la médiane et soit X¯X¯\bar{X} la moyenne d'un échantillon aléatoire de taille n=2k+1n=2k+1n=2k+1 d'une distribution N(μ,σ2)N(μ,σ2)N(\mu,\sigma^2) . Comment puis-je calculer E(Y|X¯=x¯)E(Y|X¯=x¯)E(Y|\bar{X}=\bar{x}) ? Intuitivement, en raison de l'hypothèse de normalité, il est logique de prétendre que E(Y|X¯=x¯)=x¯E(Y|X¯=x¯)=x¯E(Y|\bar{X}=\bar{x})=\bar{x} et c'est effectivement la bonne réponse. Cela peut-il être montré avec rigueur? …



1
Dérivation du changement de variables d'une fonction de densité de probabilité?
Dans la reconnaissance des formes de livre et l'apprentissage automatique (formule 1.27), il donne py(y)=px(x)∣∣∣dxdy∣∣∣=px(g(y))|g′(y)|py(y)=px(x)|dxdy|=px(g(y))|g′(y)|p_y(y)=p_x(x) \left | \frac{d x}{d y} \right |=p_x(g(y)) | g'(y) | où , est le pdf qui correspond à par rapport au changement de la variable.px=g(y)x=g(y)x=g(y)p y ( y )px(x)px(x)p_x(x)py(y)py(y)p_y(y) Les livres disent que c'est parce …


2
Le pdf de
Supposons que X1,X2,...,XnX1,X2,...,XnX_1, X_2,...,X_n soit iid de N(μ,σ2)N(μ,σ2)N(\mu,\sigma^2) avec inconnu μ∈Rμ∈R\mu \in \mathcal Ret σ2&gt;0σ2&gt;0\sigma^2>0 Soit Z=X1−X¯S,Z=X1−X¯S,Z=\frac{X_1-\bar{X}}{S},S est ici l'écart type. On peut montrer que ZZZ a le pdf de Lebesgue f(z)=n−−√Γ(n−12)π−−√(n−1)Γ(n−22)[1−nz2(n−1)2]n/2−2I(0,(n−1)/n√)(|Z|)f(z)=nΓ(n−12)π(n−1)Γ(n−22)[1−nz2(n−1)2]n/2−2I(0,(n−1)/n)(|Z|)f(z)=\frac{\sqrt{n} \Gamma\left(\frac{n-1}{2}\right)}{\sqrt{\pi}(n-1)\Gamma\left(\frac{n-2}{2}\right)}\left[1-\frac{nz^2}{(n-1)^2}\right]^{n/2-2}I_{(0,(n-1)/\sqrt{n})}(|Z|) Ma question est alors comment obtenir ce pdf? La question est d' ici dans l'exemple 3.3.4 de …
15 self-study  umvue 

2
Simulation de tirages à partir d'une distribution uniforme à l'aide de tirages à partir d'une distribution normale
J'ai récemment acheté une ressource d'entrevue en science des données dans laquelle l'une des questions de probabilité était la suivante: Étant donné les tirages d'une distribution normale avec des paramètres connus, comment pouvez-vous simuler les tirages d'une distribution uniforme? Mon processus de pensée original était que, pour une variable aléatoire …

1
Quelle est l'intuition derrière les échantillons échangeables sous l'hypothèse nulle?
Les tests de permutation (également appelés test de randomisation, test de re-randomisation ou test exact) sont très utiles et s'avèrent utiles lorsque l'hypothèse de distribution normale requise par exemple t-testn'est pas remplie et lorsque la transformation des valeurs par classement des un test non paramétrique comme Mann-Whitney-U-testcela entraînerait la perte …
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.