Questions marquées «resampling»

Le rééchantillonnage consiste à prélever un échantillon d'un échantillon. Les utilisations courantes sont le jackknifing (prendre un sous-échantillon, par exemple toutes les valeurs sauf 1) et le bootstrap (échantillonnage avec remplacement). Ces techniques peuvent fournir une estimation robuste d'une distribution d'échantillonnage lorsqu'il serait difficile ou impossible d'en déduire analytiquement.

2
Méthodes de rééchantillonnage / simulation: monte carlo, bootstrapping, jackknifing, validation croisée, tests de randomisation et tests de permutation
J'essaie de comprendre la différence entre différentes méthodes de rééchantillonnage (simulation de Monte Carlo, amorçage paramétrique, amorçage non paramétrique, jackknifing, validation croisée, tests de randomisation et de permutation) et leur mise en œuvre dans mon propre contexte en utilisant R. Disons que j'ai la situation suivante - je veux effectuer …

5
Peut-on sur-adapter en apprenant des algorithmes d’apprentissage automatique en utilisant CV / Bootstrap?
Cette question est peut-être trop ouverte pour obtenir une réponse définitive, mais j'espère que non. Les algorithmes d'apprentissage machine, tels que SVM, GBM, Random Forest, etc., ont généralement quelques paramètres libres qui, au-delà de certaines indications empiriques, doivent être adaptés à chaque jeu de données. Cela se fait généralement avec …

2
Dans quelle mesure le bootstrap se rapproche-t-il de la distribution d'échantillonnage d'un estimateur?
Ayant récemment étudié le bootstrap, j'ai posé une question conceptuelle qui me laisse toujours perplexe: Vous avez une population et vous voulez connaître un attribut de population, c'est-à-dire θ=g(P)θ=g(P)\theta=g(P) , où j'utilise PPP pour représenter la population. Ce θθ\theta pourrait être la moyenne de la population par exemple. Habituellement, vous …

2
Pourquoi utiliser la validation croisée stratifiée? Pourquoi cela n'endommage-t-il pas les avantages liés à la variance?
On m'a dit qu'il est avantageux d'utiliser la validation croisée stratifiée, en particulier lorsque les classes de réponse sont déséquilibrées. Si l'un des objectifs de la validation croisée est d'aider à rendre compte du caractère aléatoire de notre échantillon de données de formation d'origine, faire en sorte que chaque pli …


2
Méthodes de rééchantillonnage du caret
J'utilise la bibliothèque careten R pour tester différentes procédures de modélisation. L' trainControlobjet permet de spécifier une méthode de rééchantillonnage. Les méthodes sont décrites dans la documentation section 2.3 et comprennent: boot, boot632, cv, LOOCV, LGOCV, repeatedcvet oob. Bien que certaines d'entre elles soient faciles à déduire, toutes ces méthodes …
20 r  resampling  caret 

2
Test de la classification sur des données de déséquilibre suréchantillonnées
Je travaille sur des données gravement déséquilibrées. Dans la littérature, plusieurs méthodes sont utilisées pour rééquilibrer les données en utilisant un rééchantillonnage (sur ou sous-échantillonnage). Deux bonnes approches sont: SMOTE: TEchnique de suréchantillonnage des minorités synthétiques ( SMOTE ) ADASYN: Approche d'échantillonnage synthétique adaptative pour l'apprentissage déséquilibré ( ADASYN ) …

2
Test d'échantillonnage IID
Comment testeriez-vous ou vérifiez-vous que l'échantillonnage est IID (indépendant et identique)? Notez que je ne veux pas dire gaussien et identique, juste IID. Et l'idée qui me vient à l'esprit est de diviser à plusieurs reprises l'échantillon en deux sous-échantillons de taille égale, d'effectuer le test de Kolmogorov-Smirnov et de …



1
Cette méthode de rééchantillonnage des séries chronologiques est-elle connue dans la littérature? At-il un nom?
Je cherchais récemment des moyens de rééchantillonner des séries chronologiques, Préserve approximativement l'auto-corrélation des longs processus de mémoire. Préserver le domaine des observations (par exemple une série temporelle rééchantillonnée d'entiers est toujours une série temporelle d'entiers). Peut affecter certaines échelles uniquement, si nécessaire. J'ai trouvé le schéma de permutation suivant …


1
Le centrage est-il nécessaire lors de l'amorçage de la moyenne de l'échantillon?
En lisant comment approximer la distribution de la moyenne de l'échantillon, je suis tombé sur la méthode de bootstrap non paramétrique. Apparemment, on peut approximer la distribution de X¯n−μX¯n−μ\bar{X}_n-\mu par la distribution de , où désigne la moyenne de l'échantillon de l'échantillon bootstrap.X¯∗n−X¯nX¯n∗−X¯n\bar{X}_n^*-\bar{X}_nX¯∗nX¯n∗\bar{X}_n^* Ma question est alors: ai-je besoin du …


5
Comment effectuer l'imputation de valeurs dans un très grand nombre de points de données?
J'ai un très grand ensemble de données et il manque environ 5% de valeurs aléatoires. Ces variables sont corrélées entre elles. L'exemple de jeu de données R suivant n'est qu'un exemple de jouet avec des données corrélées factices. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.