Questions marquées «residuals»

Les résidus d'un modèle sont les valeurs réelles moins les valeurs prévues. De nombreux modèles statistiques font des hypothèses sur l'erreur, qui est estimée par les résidus.

3
Erreur quadratique moyenne et somme résiduelle des carrés
En regardant les définitions Wikipedia de: Erreur quadratique moyenne (MSE) Somme résiduelle des carrés (RSS) Il me semble que MSE=1NRSS=1N∑(fi−yi)2MSE=1NRSS=1N∑(fi−yi)2\text{MSE} = \frac{1}{N} \text{RSS} = \frac{1}{N} \sum (f_i -y_i)^2 où est le nombre d'échantillons et est notre estimation de .NNNfifif_iyiyiy_i Cependant, aucun des articles de Wikipédia ne mentionne cette relation. Pourquoi? …
31 residuals  mse 


1
Les degrés de liberté peuvent-ils être un nombre non entier?
Lorsque j'utilise GAM, cela me donne un DF résiduel de (dernière ligne du code). Qu'est-ce que ça veut dire? Au-delà de l'exemple GAM, en général, le nombre de degrés de liberté peut-il être un nombre non entier?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 



2
Diagnostics pour les modèles linéaires généralisés (mixtes) (en particulier les résidus)
J'ai actuellement du mal à trouver le bon modèle pour les données de comptage difficiles (variable dépendante). J'ai essayé différents modèles (des modèles à effets mixtes sont nécessaires pour mon type de données) tels que lmeret lme4(avec une transformation logarithmique) ainsi que des modèles à effets mixtes linéaires généralisés avec …

5
Hypothèses des modèles linéaires et que faire si les résidus ne sont pas normalement distribués
Je suis un peu confus quant aux hypothèses de régression linéaire. Jusqu'à présent, j'ai vérifié si: toutes les variables explicatives étaient corrélées linéairement avec la variable de réponse. (C'était le cas) il y avait une colinéarité entre les variables explicatives. (il y avait peu de colinéarité). les distances Cook des …

2
Pourquoi la normalité des résidus est-elle «à peine importante du tout» aux fins de l'estimation de la droite de régression?
Gelman et Hill (2006) écrivent à la p46 que: L'hypothèse de régression qui est généralement la moins importante est que les erreurs sont normalement distribuées. En fait, aux fins de l'estimation de la droite de régression (par rapport à la prévision de points de données individuels), l'hypothèse de normalité est …


2
Dans la régression linéaire simple, d'où vient la formule de la variance des résidus?
Selon un texte que j'utilise, la formule de la variance du ithithi^{th} résiduel est donnée par: σ2(1−1n−(xi−x¯¯¯)2Sxx)σ2(1−1n−(xi−x¯)2Sxx)\sigma^2\left ( 1-\frac{1}{n}-\frac{(x_{i}-\overline{x})^2}{S_{xx}} \right ) Je trouve cela difficile à croire car le ithithi^{th} résiduel est la différence entre la ithithi^{th} valeur observée et la ithithi^{th} valeur ajustée; si l'on devait calculer la variance …






En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.