Questions marquées «posterior»

Se réfère à la distribution de probabilité des paramètres conditionnés sur les données des statistiques bayésiennes.

2
Lors de l'approximation d'un postérieur à l'aide de MCMC, pourquoi ne sauvegardons-nous pas les probabilités postérieures mais utilisons-nous ensuite les fréquences des valeurs des paramètres?
J'évalue actuellement les paramètres d'un modèle défini par plusieurs équations différentielles ordinaires (ODE). J'essaie ceci avec une approche bayésienne en approximant la distribution postérieure des paramètres étant donné certaines données en utilisant la chaîne de Markov Monte Carlo (MCMC). Un échantillonneur MCMC génère une chaîne de valeurs de paramètres où …

1
Régression bayésienne au singulier
Communauté SE, j'espère avoir un aperçu du problème suivant. Étant donné un modèle de régression linéaire simpleY=Xβ+ϵ , where Y∈RT,X∈RT×N.Y=Xβ+ϵ , where Y∈RT,X∈RT×N.Y=X\beta+\epsilon\text{ , where } Y\in\mathbb{R}^T,X\in\mathbb{R}^{T \times N}. Sous une fonction de vraisemblance gaussienne avec des termes d'erreur homoscédastiques, la distribution conditionnelle de la variable dépendante prend la forme …


1
Dérivation de la densité postérieure pour une vraisemblance log-normale et a priori de Jeffreys
La fonction de vraisemblance d'une distribution lognormale est: F( x ; μ , σ) ∝∏nje11σXjeexp( -( lnXje- μ)22σ2)F(X;μ,σ)∝∏je1n1σXjeexp⁡(-(ln⁡Xje-μ)22σ2)f(x; \mu, \sigma) \propto \prod_{i_1}^n \frac{1}{\sigma x_i} \exp \left ( - \frac{(\ln{x_i} - \mu)^2}{2 \sigma^2} \right ) et le Prior de Jeffreys est: p ( μ , σ) ∝1σ2p(μ,σ)∝1σ2p(\mu,\sigma) \propto \frac{1}{\sigma^2} donc la …


1
Pourquoi ne pas utiliser Beta (1,1) comme limite évitant a priori sur un paramètre de corrélation transformé?
Dans Bayesian Data Analysis , chapitre 13, page 317, deuxième paragraphe complet, dans les approximations modales et distributionnelles, Gelman et al. écrire: Si le plan est de résumer l'inférence par le mode postérieur de [le paramètre de corrélation dans une distribution normale bivariée], nous remplacerions la distribution précédente U (-1,1) …

2
Pourquoi un modèle statistique serait-il surchargé s'il était doté d'un énorme ensemble de données?
Mon projet actuel peut m'obliger à construire un modèle pour prédire le comportement d'un certain groupe de personnes. l'ensemble de données de formation ne contient que 6 variables (id est uniquement à des fins d'identification): id, age, income, gender, job category, monthly spend dans laquelle se monthly spendtrouve la variable …
8 modeling  large-data  overfitting  clustering  algorithms  error  spatial  r  regression  predictive-models  linear-model  average  measurement-error  weighted-mean  error-propagation  python  standard-error  weighted-regression  hypothesis-testing  time-series  machine-learning  self-study  arima  regression  correlation  anova  statistical-significance  excel  r  regression  distributions  statistical-significance  contingency-tables  regression  optimization  measurement-error  loss-functions  image-processing  java  panel-data  probability  conditional-probability  r  lme4-nlme  model-comparison  time-series  probability  probability  conditional-probability  logistic  multiple-regression  model-selection  r  regression  model-based-clustering  svm  feature-selection  feature-construction  time-series  forecasting  stationarity  r  distributions  bootstrap  r  distributions  estimation  maximum-likelihood  garch  references  probability  conditional-probability  regression  logistic  regression-coefficients  model-comparison  confidence-interval  r  regression  r  generalized-linear-model  outliers  robust  regression  classification  categorical-data  r  association-rules  machine-learning  distributions  posterior  likelihood  r  hypothesis-testing  normality-assumption  missing-data  convergence  expectation-maximization  regression  self-study  categorical-data  regression  simulation  regression  self-study  self-study  gamma-distribution  modeling  microarray  synthetic-data 


2
Calcul de la probabilité lorsque
J'essaie de calculer cette distribution postérieure: ( θ | - ) =∏ni = 1pyjeje( 1 -pje)1 -yje∑toutθ ,pje| θ∏ni = 1pyjeje( 1 -pje)1 -yje(θ|−)=∏i=1npiyi(1−pi)1−yi∑allθ,pi|θ∏i=1npiyi(1−pi)1−yi (\theta|-)=\frac{\prod_{i=1}^{n}p_i^{y_i}(1-p_i)^{1-y_i}}{\sum_{\text{all}\,\theta,p_i|\theta}\prod_{i=1}^{n}p_i^{y_i}(1-p_i)^{1-y_i}} Le problème est que le numérateur, qui est le produit d'un tas de Bernoulli (pje,yje)Bernoulli(pi,yi)\text{Bernoulli}(p_i,y_i)les probabilités sont trop faibles. (Mannn est grande, environ 1500). Par …
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.