Questions marquées «monte-carlo»

Utilisation de nombres (pseudo-) aléatoires et de la loi des grands nombres pour simuler le comportement aléatoire d'un système réel.

1
Intégration Metropolis-Hastings - pourquoi ma stratégie ne fonctionne-t-elle pas?
Supposons que j'ai une fonction g(x)g(x)g(x) que je souhaite intégrer ∫∞−∞g(x)dx.∫−∞∞g(x)dx. \int_{-\infty}^\infty g(x) dx. Bien sûr, en supposant que g(x)g(x)g(x) passe à zéro aux points d'extrémité, pas d'explosions, belle fonction. Une façon avec laquelle j'ai joué est d'utiliser l'algorithme Metropolis-Hastings pour générer une liste d'échantillons x1,x2,…,xnx1,x2,…,xnx_1, x_2, \dots, x_n partir …

2
Quelles sont les techniques d'échantillonnage de deux variables aléatoires corrélées?
Quelles sont les techniques d'échantillonnage de deux variables aléatoires corrélées: si leurs distributions de probabilité sont paramétrées (par exemple, log-normal) s'ils ont des distributions non paramétriques. Les données sont deux séries temporelles pour lesquelles nous pouvons calculer des coefficients de corrélation non nuls. Nous souhaitons simuler ces données à l'avenir, …

2
Quelles sont les utilisations importantes de la génération de nombres aléatoires dans les statistiques de calcul?
Comment et pourquoi les générateurs de nombres aléatoires (RNG) sont-ils importants dans les statistiques de calcul? Je comprends que le caractère aléatoire est important lors du choix des échantillons pour de nombreux tests statistiques afin d'éviter tout biais vers l'une ou l'autre hypothèse, mais y a-t-il d'autres domaines des statistiques …

1
Quelle est l'intuition derrière les échantillons échangeables sous l'hypothèse nulle?
Les tests de permutation (également appelés test de randomisation, test de re-randomisation ou test exact) sont très utiles et s'avèrent utiles lorsque l'hypothèse de distribution normale requise par exemple t-testn'est pas remplie et lorsque la transformation des valeurs par classement des un test non paramétrique comme Mann-Whitney-U-testcela entraînerait la perte …
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 




1
Pourquoi utiliser le bootstrap paramétrique?
J'essaie actuellement de comprendre certaines choses concernant le bootstrap paramétrique. La plupart des choses sont probablement insignifiantes, mais je pense toujours avoir raté quelque chose. Supposons que je souhaite obtenir des intervalles de confiance pour les données à l'aide d'une procédure d'amorçage paramétrique. J'ai donc cet échantillon et je suppose …

2
Résultats sur les estimations de Monte Carlo produites par échantillonnage d'importance
J'ai travaillé sur l'échantillonnage d'importance assez étroitement au cours de la dernière année et j'ai quelques questions ouvertes que j'espérais obtenir de l'aide. D'après mon expérience pratique des schémas d'échantillonnage d'importance, ils peuvent occasionnellement produire des estimations fantastiques à faible variance et à faible biais. Plus fréquemment, cependant, ils ont …


5
Comment effectuer l'imputation de valeurs dans un très grand nombre de points de données?
J'ai un très grand ensemble de données et il manque environ 5% de valeurs aléatoires. Ces variables sont corrélées entre elles. L'exemple de jeu de données R suivant n'est qu'un exemple de jouet avec des données corrélées factices. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

1
Différences entre PROC Mixed et lme / lmer en R - degrés de liberté
Remarque: cette question est une rediffusion, car ma question précédente a dû être supprimée pour des raisons juridiques. En comparant PROC MIXED de SAS avec la fonction lmedu nlmepackage dans R, je suis tombé sur des différences assez confuses. Plus précisément, les degrés de liberté dans les différents tests diffèrent …
12 r  mixed-model  sas  degrees-of-freedom  pdf  unbiased-estimator  distance-functions  functional-data-analysis  hellinger  time-series  outliers  c++  relative-risk  absolute-risk  rare-events  regression  t-test  multiple-regression  survival  teaching  multiple-regression  regression  self-study  t-distribution  machine-learning  recommender-system  self-study  binomial  standard-deviation  data-visualization  r  predictive-models  pearson-r  spearman-rho  r  regression  modeling  r  categorical-data  data-visualization  ggplot2  many-categories  machine-learning  cross-validation  weka  microarray  variance  sampling  monte-carlo  regression  cross-validation  model-selection  feature-selection  elastic-net  distance-functions  information-theory  r  regression  mixed-model  random-effects-model  fixed-effects-model  dataset  data-mining 

2
Approximation d'intégrales à l'aide de la simulation de Monte Carlo dans R
Comment puis-je approximer l'intégrale suivante à l'aide de la simulation MC? ∫1- 1∫1- 1| x-y|d xd y∫−11∫−11|x−y|dxdy \int_{-1}^{1} \int_{-1}^{1} |x-y| \,\mathrm{d}x \,\mathrm{d}y Merci! Modifier (un certain contexte): j'essaie d'apprendre à utiliser la simulation pour approximer les intégrales et je m'entraîne quand j'ai rencontré des difficultés. Edit 2 + 3 : …



En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.