Questions marquées «self-study»

Un exercice de routine à partir d'un manuel, d'un cours ou d'un test utilisé pour une classe ou une auto-étude. La politique de cette communauté est de «fournir des conseils utiles» pour ces questions plutôt que des réponses complètes.

1
Sous quelles hypothèses la méthode des moindres carrés ordinaires donne-t-elle des estimateurs efficaces et non biaisés?
Est-il vrai que selon les hypothèses de Gauss Markov, la méthode des moindres carrés ordinaires donne des estimateurs efficaces et non biaisés? Donc: tE( ut) = 0E(ut)=0E(u_t)=0 pour toutttt t = sE( utus) = σ2E(utus)=σ2E(u_tu_s)=\sigma^2 pourt = st=st=s t ≠ sE( utus) = 0E(utus)=0E(u_tu_s)=0 pourt ≠ st≠st\neq s où sont …

1
Comment comparer les événements observés aux événements attendus?
Supposons que j'ai un échantillon de fréquences de 4 événements possibles: Event1 - 5 E2 - 1 E3 - 0 E4 - 12 et j'ai les probabilités attendues que mes événements se produisent: p1 - 0.2 p2 - 0.1 p3 - 0.1 p4 - 0.6 Avec la somme des fréquences …
9 r  statistical-significance  chi-squared  multivariate-analysis  exponential  joint-distribution  statistical-significance  self-study  standard-deviation  probability  normal-distribution  spss  interpretation  assumptions  cox-model  reporting  cox-model  statistical-significance  reliability  method-comparison  classification  boosting  ensemble  adaboost  confidence-interval  cross-validation  prediction  prediction-interval  regression  machine-learning  svm  regularization  regression  sampling  survey  probit  matlab  feature-selection  information-theory  mutual-information  time-series  forecasting  simulation  classification  boosting  ensemble  adaboost  normal-distribution  multivariate-analysis  covariance  gini  clustering  text-mining  distance-functions  information-retrieval  similarities  regression  logistic  stata  group-differences  r  anova  confidence-interval  repeated-measures  r  logistic  lme4-nlme  inference  fiducial  kalman-filter  classification  discriminant-analysis  linear-algebra  computing  statistical-significance  time-series  panel-data  missing-data  uncertainty  probability  multivariate-analysis  r  classification  spss  k-means  discriminant-analysis  poisson-distribution  average  r  random-forest  importance  probability  conditional-probability  distributions  standard-deviation  time-series  machine-learning  online  forecasting  r  pca  dataset  data-visualization  bayes  distributions  mathematical-statistics  degrees-of-freedom 



2
Calculer la courbe ROC pour les données
Donc, j'ai 16 essais dans lesquels j'essaie d'authentifier une personne à partir d'un trait biométrique en utilisant Hamming Distance. Mon seuil est fixé à 3,5. Mes données sont ci-dessous et seul l'essai 1 est un vrai positif: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 

1
Trouver les densités marginales de
Comme le titre l'indique, je cherche les densités marginales def(x,y)=c1−x2−y2−−−−−−−−−√,x2+y2≤1.f(x,y)=c1−x2−y2,x2+y2≤1.f (x,y) = c \sqrt{1 - x^2 - y^2}, x^2 + y^2 \leq 1. Jusqu'à présent, j'ai trouvé que était . J'ai compris cela en convertissant en coordonnées polaires et en intégrant sur , c'est pourquoi je suis coincé sur la …

1
Les matrices de covariance et de corrélation et / ou leurs inverses ont-elles des interprétations utiles?
Tout en apprenant à calculer les matrices de covariance et de corrélation et leurs inverses en VB et T-SQL il y a quelques années, j'ai appris que les différentes entrées ont des propriétés intéressantes qui peuvent les rendre utiles dans les bons scénarios d'exploration de données. Un exemple évident est …

2
Soit un vecteur aléatoire. Les èmes moments de compte?
Je suis en train d'apprendre par moi-même sur la théorie des modèles linéaires, et une chose que je trouve surprenante est que bien que soit défini pour un vecteur aléatoire , il n'y a aucune mention d'autres moments en dehors de la matrice de covariance.E[Y]E[Y]\mathbb{E}[\mathbf{Y}]Y=⎡⎣⎢⎢⎢⎢y1y2⋮yn⎤⎦⎥⎥⎥⎥Y=[y1y2⋮yn]\mathbf{Y} = \begin{bmatrix} y_1 \\ y_2 …


1
Analyse discriminante linéaire pour
J'étudie «Introduction à l'apprentissage statistique» par James, Witten, Hastie, Tibshirani. À la page 139 de leur livre, ils ont commencé par présenter le théorème de Bayes . n'est pas une constante mathématique, mais indique la probabilité antérieure. Rien n'est étrange dans cette équation.pk( X) = P( O= k | X= …

1
Interprétation de l'intervalle de prédiction bayésien à 95%
Supposons le modèle de régression bivarié suivant: où est iid pour .yi=βxi+ui,yi=βxi+ui, y_i = \beta x_i + u_i, uiuiu_iN(0,σ2=9)N(0,σ2=9)N(0, \sigma^2 = 9)i=1,…,ni=1,…,ni = 1,\ldots, n Supposons un a priori non informatif , alors on peut montrer que le pdf postérieur pour est oùp(β)∝constantp(β)∝constantp(\beta) \propto \text{constant}ββ\betap(β|y)=(18π)−12(∑i=1nx2i)12exp[−118∑i=1nx2i(β−β^)2],p(β|y)=(18π)−12(∑i=1nxi2)12exp⁡[−118∑i=1nxi2(β−β^)2], p(\beta|\mathbf{y}) = (18\pi)^{-\frac{1}{2}}\left(\sum_{i=1}^n x_i^2\right)^{\frac{1}{2}} \exp\left[-\frac{1}{18}\sum_{i=1}^n …

1
Compléter une statistique suffisante
J'ai récemment commencé à étudier l'inférence statistique. J'ai travaillé sur divers problèmes et celui-ci m'a complètement déconcerté. Laisser X1,…,XnX1,…,XnX_1,\dots,X_n être un échantillon aléatoire d'une distribution discrète qui attribue avec probabilité 1313\frac{1}{3} les valeurs θ−1, θ, or θ+1θ−1, θ, or θ+1\theta-1,\space\theta,\space\text{or}\space\theta+1, où θθ\thetaest un entier. Montrer qu'il n'existe pas de statistique …



4
Calcul analytique de l'erreur du classificateur Bayes
Si deux classes et ont une distribution normale avec des paramètres connus ( , comme moyennes et , sont leurs covariances) comment pouvons-nous calculer théoriquement l'erreur du classifieur Bayes pour elles?w1w1w_1w2w2w_2M1M1M_1M2M2M_2Σ1Σ1\Sigma_1Σ2Σ2\Sigma_2 Supposons également que les variables se trouvent dans un espace à N dimensions. Remarque: Une copie de cette question …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.