Questions marquées «bayesian»

L'inférence bayésienne est une méthode d'inférence statistique qui repose sur le traitement des paramètres du modèle comme des variables aléatoires et l'application du théorème de Bayes pour déduire des déclarations de probabilité subjectives sur les paramètres ou les hypothèses, conditionnelles à l'ensemble de données observé.

1
Détection en ligne des points de changement bayésiens (distribution prédictive marginale)
Je lis le document bayésien en ligne sur la détection des points de changement d'Adams et MacKay ( lien ). Les auteurs commencent par écrire la distribution prédictive marginale: oùP(xt+1|x1:t)=∑rtP(xt+1|rt,x(r)t)P(rt|x1:t)(1)P(xt+1|x1:t)=∑rtP(xt+1|rt,xt(r))P(rt|x1:t)(1) P(x_{t+1} | \textbf{x}_{1:t}) = \sum_{r_t} P(x_{t+1} | r_t, \textbf{x}_t^{(r)}) P(r_t | \textbf{x}_{1:t}) \qquad \qquad (1) XtXtx_t est l'observation au temps …



2
Comparaison entre les estimateurs de Bayes
Considérons la perte quadratique , avec donné antérieurement où . Soit la probabilité. Trouvez l'estimateur de Bayes .L(θ,δ)=(θ−δ)2L(θ,δ)=(θ−δ)2L(\theta,\delta)=(\theta-\delta)^2π(θ)π(θ)\pi(\theta)π(θ)∼U(0,1/2)π(θ)∼U(0,1/2)\pi(\theta)\sim U(0,1/2)f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|\theta)=\theta x^{\theta-1}\mathbb{I}_{[0,1]}(x), \theta>0δπδπ\delta^\pi Considérons la perte quadratique pondérée où avec avant . Soit la probabilité. Trouvez l'estimateur de Bayes .Lw(θ,δ)=w(θ)(θ−δ)2Lw(θ,δ)=w(θ)(θ−δ)2L_w(\theta,\delta)=w(\theta)(\theta-\delta)^2w(θ)=I(−∞,1/2)w(θ)=I(−∞,1/2)w(\theta)=\mathbb{I}_{(-\infty,1/2)}π1(θ)=I[0,1](θ)π1(θ)=I[0,1](θ)\pi_1(\theta)=\mathbb{I}_{[0,1]}(\theta)f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|\theta)=\theta x^{\theta-1}\mathbb{I}_{[0,1]}(x), \theta>0δπ1δ1π\delta^\pi_1 Comparer etδπδπ\delta^\piδπ1δ1π\delta^\pi_1 J'ai d'abord remarqué que , et j'ai supposé …

2
Aide à la maximisation des attentes à partir du papier: comment inclure la distribution préalable?
La question est basée sur l'article intitulé: Reconstruction d'images en tomographie optique diffuse à l'aide du modèle couplé de transport et de diffusion radiatifs Lien de téléchargement Les auteurs appliquent l'algorithme EM avec régularisation de densité d'un vecteur inconnu pour estimer les pixels d'une image. Le modèle est donné parl1l1l_1μμ\mu …

1
Comment formaliser une distribution de probabilité antérieure? Y a-t-il des règles générales ou des conseils à utiliser?
Bien que j'aime à penser que j'ai une bonne compréhension du concept de l'information préalable dans l'analyse statistique et la prise de décision bayésienne, j'ai souvent du mal à comprendre ma demande. Je pense à quelques situations qui illustrent mes luttes et je pense qu'elles ne sont pas correctement traitées …

1
Combien de faces a un dé? Inférence bayésienne dans JAGS
Problème Je voudrais faire une inférence sur un système analogue à mourir avec un nombre inconnu de côtés. Le dé est lancé plusieurs fois, après quoi je voudrais déduire une distribution de probabilité sur un paramètre correspondant au nombre de côtés du dé, θ. Intuition Si après 40 rouleaux vous …

1
Limitations de MCMC / EM? MCMC sur EM?
J'apprends actuellement des modèles bayésiens hiérarchiques en utilisant JAGS de R, et aussi pymc en utilisant Python ( "Méthodes bayésiennes pour les pirates" ). Je peux obtenir une certaine intuition de ce post : "vous vous retrouverez avec une pile de chiffres qui ressemble" comme si "vous aviez réussi à …

1
Une estimation bayésienne avec un «a priori plat» est-elle identique à une estimation du maximum de vraisemblance?
En phylogénétique, les arbres phylogénétiques sont souvent construits à l'aide d'une analyse MLE ou bayésienne. Souvent, un a priori plat est utilisé dans l'estimation bayésienne. Si je comprends bien, une estimation bayésienne est une estimation de vraisemblance qui intègre un a priori. Ma question est, si vous utilisez un appartement …


4
Qu'est-ce qu'une «distribution strictement positive»?
Je lis "Causality" de Judea Pearl (deuxième édition 2009) et dans la section 1.1.5 Indépendance conditionnelle et graphoïdes, il déclare: Voici une liste (partielle) de propriétés satisfaites par la relation d'indépendance conditionnelle (X_ || _Y | Z). Symétrie: (X_ || _ Y | Z) ==> (Y_ || _X | Z). …


3
Comprendre les distributions prédictives bayésiennes
Je prends un cours d'introduction à Bayes et j'ai du mal à comprendre les distributions prédictives. Je comprends pourquoi ils sont utiles et je connais la définition, mais il y a certaines choses que je ne comprends pas très bien. 1) Comment obtenir la bonne distribution prédictive pour un vecteur …


2
Comment un a priori uniforme conduit-il aux mêmes estimations du maximum de vraisemblance et du mode de postérieur?
J'étudie différentes méthodes d'estimation ponctuelle et je lis que lors de l'utilisation d'estimations MAP vs ML, lorsque nous utilisons un "a priori uniforme", les estimations sont identiques. Quelqu'un peut-il expliquer ce qu'est un a priori «uniforme» et donner des exemples (simples) de cas où les estimateurs MAP et ML seraient …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.