Questions marquées «aic»

AIC signifie Akaike Information Criterion, qui est une technique utilisée pour sélectionner le meilleur modèle dans une classe de modèles en utilisant une probabilité pénalisée. Un AIC plus petit implique un meilleur modèle.

1
Sélection variable vs sélection de modèle
Je comprends donc que la sélection des variables fait partie de la sélection du modèle. Mais en quoi consiste exactement la sélection du modèle? Est-ce plus que ce qui suit: 1) choisissez une distribution pour votre modèle 2) choisir des variables explicatives,? Je pose cette question parce que je lis …

2
Différentes définitions AIC
À partir de Wikipedia, il existe une définition du critère d'information d'Akaike (AIC) comme , où est le nombre de paramètres et est la log-vraisemblance du modèle.k log LAIC=2k−2logLAIC=2k−2log⁡L AIC = 2k -2 \log L kkklogLlog⁡L\log L Cependant, notre économétrie note dans une université bien respectée que . Ici est …

5
Comment effectuer l'imputation de valeurs dans un très grand nombre de points de données?
J'ai un très grand ensemble de données et il manque environ 5% de valeurs aléatoires. Ces variables sont corrélées entre elles. L'exemple de jeu de données R suivant n'est qu'un exemple de jouet avec des données corrélées factices. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

1
Critères de sélection du «meilleur» modèle dans un modèle de Markov caché
J'ai un ensemble de données de série chronologique auquel j'essaie d'adapter un modèle de Markov caché (HMM) afin d'estimer le nombre d'états latents dans les données. Mon pseudo-code pour ce faire est le suivant: for( i in 2 : max_number_of_states ){ ... calculate HMM with i states ... optimal_number_of_states = …











2
Existe-t-il une statistique d'ajustement de modèle (comme AIC ou BIC) qui peut être utilisée pour des comparaisons absolues plutôt que simplement relatives?
Je ne connais pas très bien cette littérature, alors pardonnez-moi s'il s'agit d'une question évidente. Étant donné que l'AIC et le BIC dépendent de la maximisation de la probabilité, il semble qu'ils ne peuvent être utilisés que pour effectuer des comparaisons relatives entre un ensemble de modèles tentant de s'adapter …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.