Questions marquées «error»

L'erreur d'une estimation ou d'une prédiction est son écart par rapport à la valeur réelle, qui peut être inobservable (par exemple, paramètres de régression) ou observable (par exemple, réalisations futures). Utilisez la balise [error-message] pour poser des questions sur les erreurs logicielles.



2
Pourquoi utilisons-nous des résidus pour tester les hypothèses sur les erreurs de régression?
Supposons que nous ayons un modèle .Yi=β0+β1Xi1+β2Xi2+⋯+βkXik+ϵiYi=β0+β1Xi1+β2Xi2+⋯+βkXik+ϵiY_i = \beta_0 + \beta_1X_{i1} + \beta_2X_{i2} + \dots + \beta_kX_{ik} + \epsilon_i La régression a un certain nombre d'hypothèses, telles que les erreurs devraient être normalement distribuées avec un zéro moyen et une variance constante. On m'a appris à vérifier ces hypothèses en …



1
Quand une règle de notation appropriée est-elle une meilleure estimation de la généralisation dans un cadre de classification?
Une approche typique pour résoudre un problème de classification consiste à identifier une classe de modèles candidats, puis à effectuer une sélection de modèle à l'aide d'une procédure telle que la validation croisée. Généralement, on sélectionne le modèle avec la plus grande précision, ou une fonction associée qui code des …

2
Biais d'optimisme - estimations de l'erreur de prédiction
Le livre Elements of Statistical Learning (disponible en ligne en PDF) discute du biais d'optimisim (7.21, page 229). Il indique que le biais d'optimisme est la différence entre l'erreur d'apprentissage et l'erreur dans l'échantillon (erreur observée si nous échantillonnons de nouvelles valeurs de résultat à chacun des points d'apprentissage d'origine) …

3
Quelle est la RMSE normalisée par la valeur moyenne observée appelée?
J'utilise le Root Mean Squared Error(RMSE) pour mesurer la précision des valeurs prédites à l'aide d'un modèle. Je comprends que la valeur retournée utilise les unités de mes mesures (plutôt qu'un pourcentage). Cependant, je voudrais citer mes valeurs en pourcentage. L'approche que j'ai adoptée consiste à normaliser la RMSEvaleur moyenne …


1
Existe-t-il un nom accepté pour cette mesure d'erreur?
Je suis tombé sur une mesure d'erreur utilisée pour quantifier l'erreur de reconstruction d'un modèle: ε =∑je(yje-mje)2∑je(yje-y¯)2ε=∑i(yi−mi)2∑i(yi−y¯)2 \varepsilon = \frac{\sum_i{\left(y_i-m_i\right)^2}}{\sum_i{\left(y_i-\bar{y}\right)^2}} où yjeyiy_i est le jeiie point de données, mjemim_i est l'estimation du modèle de la jeiie point de données, et y¯y¯\bar{y}est la moyenne de tous les points de données. Le …

2
Pourquoi un modèle statistique serait-il surchargé s'il était doté d'un énorme ensemble de données?
Mon projet actuel peut m'obliger à construire un modèle pour prédire le comportement d'un certain groupe de personnes. l'ensemble de données de formation ne contient que 6 variables (id est uniquement à des fins d'identification): id, age, income, gender, job category, monthly spend dans laquelle se monthly spendtrouve la variable …
8 modeling  large-data  overfitting  clustering  algorithms  error  spatial  r  regression  predictive-models  linear-model  average  measurement-error  weighted-mean  error-propagation  python  standard-error  weighted-regression  hypothesis-testing  time-series  machine-learning  self-study  arima  regression  correlation  anova  statistical-significance  excel  r  regression  distributions  statistical-significance  contingency-tables  regression  optimization  measurement-error  loss-functions  image-processing  java  panel-data  probability  conditional-probability  r  lme4-nlme  model-comparison  time-series  probability  probability  conditional-probability  logistic  multiple-regression  model-selection  r  regression  model-based-clustering  svm  feature-selection  feature-construction  time-series  forecasting  stationarity  r  distributions  bootstrap  r  distributions  estimation  maximum-likelihood  garch  references  probability  conditional-probability  regression  logistic  regression-coefficients  model-comparison  confidence-interval  r  regression  r  generalized-linear-model  outliers  robust  regression  classification  categorical-data  r  association-rules  machine-learning  distributions  posterior  likelihood  r  hypothesis-testing  normality-assumption  missing-data  convergence  expectation-maximization  regression  self-study  categorical-data  regression  simulation  regression  self-study  self-study  gamma-distribution  modeling  microarray  synthetic-data 

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.