Lors de l'obtention d'échantillons MCMC pour faire l'inférence sur un paramètre particulier, quels sont les bons guides pour le nombre minimum d' échantillons efficaces que l'on devrait viser? Et, ce conseil change-t-il à mesure que le modèle devient plus ou moins complexe?
Supposons que nous ayons un ensemble de points . Chaque point est généré en utilisant la distribution Pour obtenir postérieur pour nous écrivons Selon le document de Minka sur Expectation propagation nous avons besoin calculs pour obtenir a posteriori p (x | \ mathbf {y}) et, donc, problème devient intraitable …
Lors de l'inférence de la matrice de précision ΛΛ\boldsymbol{\Lambda} d'une distribution normale utilisée pour générer NNN vecteurs D-dimension x1,..,xNx1,..,xN\mathbf{x_1},..,\mathbf{x_N} xi∼N(μ,Λ−1)xi∼N(μ,Λ−1)\begin{align} \mathbf{x_i} &\sim \mathcal{N}(\boldsymbol{\mu, \Lambda^{-1}}) \\ \end{align} nous plaçons généralement un Wishart prioritaire sur ΛΛ\boldsymbol{\Lambda} car la distribution Wishart est le conjugué avant pour la précision d'une distribution normale multivariée avec …
Cela a également été demandé à Computational Science. J'essaie de calculer une estimation bayésienne de certains coefficients pour une autorégression, avec 11 échantillons de données: Ouije= μ + α ⋅Ouii - 1+ ϵjeOuije=μ+α⋅Ouije-1+ϵje Y_{i} = \mu + \alpha\cdot{}Y_{i-1} + \epsilon_{i} oùϵjeϵje\epsilon_{i} est gaussien avec moyenne 0 et varianceσ2eσe2\sigma_{e}^{2} La distribution …
Dans l'analyse bayésienne conjuguée de Kevin Murphy de la distribution gaussienne , il écrit que la distribution prédictive postérieure est p(x∣D)=∫p(x∣θ)p(θ∣D)dθp(x∣D)=∫p(x∣θ)p(θ∣D)dθ p(x \mid D) = \int p(x \mid \theta) p(\theta \mid D) d \theta où est les données sur lesquelles le modèle est ajusté et sont des données invisibles. Ce …
(Cette question est inspirée de ce commentaire de Xi'an .) Il est bien connu que si la distribution précédente est correcte et que la probabilité est bien définie, alors la distribution postérieure est presque sûrement propre.π(θ)π(θ)\pi(\theta)L(θ|x)L(θ|x)L(\theta | x)π(θ|x)∝π(θ)L(θ|x)π(θ|x)∝π(θ)L(θ|x)\pi(\theta|x)\propto \pi(\theta) L(\theta|x) Dans certains cas, nous utilisons plutôt une probabilité tempérée ou …
Je travaille sur la dérivation d'un postérieur de Normal-Wishart mais je suis bloqué sur l'un des paramètres (le postérieur de la matrice d'échelle, voir en bas). Juste pour le contexte et l'exhaustivité, voici le modèle et le reste des dérivations: xiμΛ∼N(μ,Λ)∼N(μ0,(κ0Λ)−1)∼W(υ0,W0)xi∼N(μ,Λ)μ∼N(μ0,(κ0Λ)−1)Λ∼W(υ0,W0)\begin{align} x_i &\sim \mathcal{N}(\boldsymbol{\mu}, \boldsymbol{\Lambda})\\ \boldsymbol{\mu} &\sim \mathcal{N}(\boldsymbol{\mu_0}, (\kappa_0 \boldsymbol{\Lambda})^{-1})\\ …
J'ai lu à propos de l'estimation du maximum de vraisemblance et de l'estimation maximum a posteriori et jusqu'à présent, je n'ai rencontré d'exemples concrets qu'avec l'estimation du maximum de vraisemblance. J'ai trouvé quelques exemples abstraits d'estimation maximale a posteriori, mais rien de concret pour l'instant avec des chiffres: S Cela …
Mes vraies questions se trouvent dans les deux derniers paragraphes, mais pour les motiver: Si j'essaie d'estimer la moyenne d'une variable aléatoire qui suit une distribution normale avec une variance connue, j'ai lu que le fait de mettre un uniforme avant sur la moyenne donne une distribution postérieure proportionnelle à …
Je ne sais pas comment évaluer la distribution prédictive postérieure de la régression linéaire bayésienne, après le cas de base décrit ici à la page 3, et copié ci-dessous. p(y~∣y)=∫p(y~∣β,σ2)p(β,σ2∣y)p(y~∣y)=∫p(y~∣β,σ2)p(β,σ2∣y) p(\tilde y \mid y) = \int p(\tilde y \mid \beta, \sigma^2) p(\beta, \sigma^2 \mid y) Le cas de base est …
Stan (en particulier, rstan) a-t-il des installations intégrées pour générer des distributions postérieures prédictives? Il n'est pas difficile de générer la distribution à partir du stan fit, mais je préfère ne pas réinventer la roue.
Lors de l'estimation des paramètres avec MAP, pourquoi est-il écrit que nous estimons le "mode"? Je pensais que ce serait le moyen de la distribution postérieure?
J'ai une probabilité assez faible conduisant l'échantillonneur Metropolis-Hastings à se déplacer dans l'espace des paramètres de manière très irrégulière, c'est-à-dire qu'aucune convergence ne peut être atteinte quels que soient les paramètres de distribution de la proposition (dans mon cas, il est gaussien). Il n'y a pas de grande complexité dans …
Déterminer comment simuler quelque chose est souvent le meilleur moyen de comprendre les principes sous-jacents. Je ne sais pas exactement comment simuler ce qui suit. Supposer que Oui∼ N( μ ,σ2)Oui∼N(μ,σ2)Y \sim N(\mu, \sigma^{2}) et cela μμ\mu a une distribution antérieure qui est N( γ,τ2)N(γ,τ2)N(\gamma, \tau^{2}). Basé sur un échantillon …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.