Questions marquées «mcmc»

Markov Chain Monte Carlo (MCMC) fait référence à une classe de méthodes pour générer des échantillons à partir d'une distribution cible en générant des nombres aléatoires à partir d'une chaîne de Markov dont la distribution stationnaire est la distribution cible. Les méthodes MCMC sont généralement utilisées lorsque des méthodes plus directes pour la génération de nombres aléatoires (par exemple la méthode d'inversion) sont irréalisables. La première méthode MCMC était l'algorithme Metropolis, plus tard modifié en l'algorithme Metropolis-Hastings.

2
Calculer la courbe ROC pour les données
Donc, j'ai 16 essais dans lesquels j'essaie d'authentifier une personne à partir d'un trait biométrique en utilisant Hamming Distance. Mon seuil est fixé à 3,5. Mes données sont ci-dessous et seul l'essai 1 est un vrai positif: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 

2
Rao-Blackwellization de Gibbs Sampler
J'évalue actuellement un modèle de volatilité stochastique avec les méthodes de Markov Chain Monte Carlo. Ainsi, j'implémente les méthodes d'échantillonnage de Gibbs et Metropolis. En supposant que je prenne la moyenne de la distribution postérieure plutôt qu'un échantillon aléatoire, est-ce ce que l'on appelle communément Rao-Blackwellization ? Dans l'ensemble, cela …


3
MCMC pour gérer les problèmes de vraisemblance plate
J'ai une probabilité assez faible conduisant l'échantillonneur Metropolis-Hastings à se déplacer dans l'espace des paramètres de manière très irrégulière, c'est-à-dire qu'aucune convergence ne peut être atteinte quels que soient les paramètres de distribution de la proposition (dans mon cas, il est gaussien). Il n'y a pas de grande complexité dans …

2
Taux d'acceptation dans l'algorithme Metropolis – Hastings
Dans l'algorithme Metropolis – Hastings d'échantillonnage d'une distribution cible, supposons: πjeπi\pi_{i} soit la densité cible à l'état ,jeii πjπj\pi_j la densité cible à l'état proposé ,jjj hje jhijh_{ij} la densité de proposition pour la transition vers l'état étant donné l'état actuel ,jjjjeii uneje jaija_{ij} soit la probabilité d'acceptation de l'état …

2
Mesures d'autocorrélation dans les valeurs catégorielles d'une chaîne de Markov?
Question directe: Existe-t-il des mesures d'autocorrélation pour une séquence d'observations d'une variable catégorielle (non ordonnée)? Contexte: J'utilise MCMC pour échantillonner à partir d'une variable catégorielle et je voudrais une mesure de la façon dont la méthode d'échantillonnage que j'ai développée se mélange à travers la distribution postérieure. Je connais bien …

1
Puis-je sous-échantillonner un grand ensemble de données à chaque itération MCMC?
Problème: je veux effectuer un échantillonnage de Gibbs pour en déduire une partie postérieure sur un grand ensemble de données. Malheureusement, mon modèle n'est pas très simple et donc l'échantillonnage est trop lent. J'envisagerais des approches variationnelles ou parallèles, mais avant d'aller aussi loin ... Question: Je voudrais savoir si …




2
Lors de l'approximation d'un postérieur à l'aide de MCMC, pourquoi ne sauvegardons-nous pas les probabilités postérieures mais utilisons-nous ensuite les fréquences des valeurs des paramètres?
J'évalue actuellement les paramètres d'un modèle défini par plusieurs équations différentielles ordinaires (ODE). J'essaie ceci avec une approche bayésienne en approximant la distribution postérieure des paramètres étant donné certaines données en utilisant la chaîne de Markov Monte Carlo (MCMC). Un échantillonneur MCMC génère une chaîne de valeurs de paramètres où …


1
Étrange trace de vraisemblance de la chaîne MCMC
J'ai un modèle qui va: Single parameter -> Complex likelihood function -> Log-likelihood. J'ai exécuté une chaîne MCMC (en utilisant pymc) et tracé la trace du paramètre et la log-vraisemblance. L'estimation des paramètres s'est avérée raisonnable, mais le tracé de log-vraisemblance me semble étrange. La log-vraisemblance ne dépasse jamais une …

3
Comment effectuer une SVD pour imputer des valeurs manquantes, un exemple concret
J'ai lu les excellents commentaires sur la façon de traiter les valeurs manquantes avant d'appliquer SVD, mais j'aimerais savoir comment cela fonctionne avec un exemple simple: Movie1 Movie2 Movie3 User1 5 4 User2 2 5 5 User3 3 4 User4 1 5 User5 5 1 5 Étant donné la matrice …
8 r  missing-data  data-imputation  svd  sampling  matlab  mcmc  importance-sampling  predictive-models  prediction  algorithms  graphical-model  graph-theory  r  regression  regression-coefficients  r-squared  r  regression  modeling  confounding  residuals  fitting  glmm  zero-inflation  overdispersion  optimization  curve-fitting  regression  time-series  order-statistics  bayesian  prior  uninformative-prior  probability  discrete-data  kolmogorov-smirnov  r  data-visualization  histogram  dimensionality-reduction  classification  clustering  accuracy  semi-supervised  labeling  state-space-models  t-test  biostatistics  paired-comparisons  paired-data  bioinformatics  regression  logistic  multiple-regression  mixed-model  random-effects-model  neural-networks  error-propagation  numerical-integration  time-series  missing-data  data-imputation  probability  self-study  combinatorics  survival  cox-model  statistical-significance  wilcoxon-mann-whitney  hypothesis-testing  distributions  normal-distribution  variance  t-distribution  probability  simulation  random-walk  diffusion  hypothesis-testing  z-test  hypothesis-testing  data-transformation  lognormal  r  regression  agreement-statistics  classification  svm  mixed-model  non-independent  observational-study  goodness-of-fit  residuals  confirmatory-factor  neural-networks  deep-learning 


En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.