Questions marquées «posterior»

Se réfère à la distribution de probabilité des paramètres conditionnés sur les données des statistiques bayésiennes.



2
Quels sont les paramètres d'un postérieur de Wishart-Wishart?
Lors de l'inférence de la matrice de précision ΛΛ\boldsymbol{\Lambda} d'une distribution normale utilisée pour générer NNN vecteurs D-dimension x1,..,xNx1,..,xN\mathbf{x_1},..,\mathbf{x_N} xi∼N(μ,Λ−1)xi∼N(μ,Λ−1)\begin{align} \mathbf{x_i} &\sim \mathcal{N}(\boldsymbol{\mu, \Lambda^{-1}}) \\ \end{align} nous plaçons généralement un Wishart prioritaire sur ΛΛ\boldsymbol{\Lambda} car la distribution Wishart est le conjugué avant pour la précision d'une distribution normale multivariée avec …

1
Étapes pour comprendre une distribution postérieure alors qu'elle pourrait être assez simple pour avoir une forme analytique?
Cela a également été demandé à Computational Science. J'essaie de calculer une estimation bayésienne de certains coefficients pour une autorégression, avec 11 échantillons de données: Ouije= μ + α ⋅Ouii - 1+ ϵjeOuije=μ+α⋅Ouije-1+ϵje Y_{i} = \mu + \alpha\cdot{}Y_{i-1} + \epsilon_{i} oùϵjeϵje\epsilon_{i} est gaussien avec moyenne 0 et varianceσ2eσe2\sigma_{e}^{2} La distribution …

2
Dans l'inférence bayésienne, pourquoi certains termes sont-ils supprimés de la prédiction postérieure?
Dans l'analyse bayésienne conjuguée de Kevin Murphy de la distribution gaussienne , il écrit que la distribution prédictive postérieure est p(x∣D)=∫p(x∣θ)p(θ∣D)dθp(x∣D)=∫p(x∣θ)p(θ∣D)dθ p(x \mid D) = \int p(x \mid \theta) p(\theta \mid D) d \theta où est les données sur lesquelles le modèle est ajusté et sont des données invisibles. Ce …

2
Une vraisemblance antérieure et exponentielle appropriée peut-elle conduire à une mauvaise postérieure?
(Cette question est inspirée de ce commentaire de Xi'an .) Il est bien connu que si la distribution précédente est correcte et que la probabilité est bien définie, alors la distribution postérieure est presque sûrement propre.π(θ)π(θ)\pi(\theta)L(θ|x)L(θ|x)L(\theta | x)π(θ|x)∝π(θ)L(θ|x)π(θ|x)∝π(θ)L(θ|x)\pi(\theta|x)\propto \pi(\theta) L(\theta|x) Dans certains cas, nous utilisons plutôt une probabilité tempérée ou …

2
Dérivation de Normal-Wishart postérieur
Je travaille sur la dérivation d'un postérieur de Normal-Wishart mais je suis bloqué sur l'un des paramètres (le postérieur de la matrice d'échelle, voir en bas). Juste pour le contexte et l'exhaustivité, voici le modèle et le reste des dérivations: xiμΛ∼N(μ,Λ)∼N(μ0,(κ0Λ)−1)∼W(υ0,W0)xi∼N(μ,Λ)μ∼N(μ0,(κ0Λ)−1)Λ∼W(υ0,W0)\begin{align} x_i &\sim \mathcal{N}(\boldsymbol{\mu}, \boldsymbol{\Lambda})\\ \boldsymbol{\mu} &\sim \mathcal{N}(\boldsymbol{\mu_0}, (\kappa_0 \boldsymbol{\Lambda})^{-1})\\ …

1
Exemple d'estimation maximale a posteriori
J'ai lu à propos de l'estimation du maximum de vraisemblance et de l'estimation maximum a posteriori et jusqu'à présent, je n'ai rencontré d'exemples concrets qu'avec l'estimation du maximum de vraisemblance. J'ai trouvé quelques exemples abstraits d'estimation maximale a posteriori, mais rien de concret pour l'instant avec des chiffres: S Cela …

1
Quand la distribution d'échantillonnage fréquentiste ne peut-elle pas être interprétée comme postérieure bayésienne dans les paramètres de régression?
Mes vraies questions se trouvent dans les deux derniers paragraphes, mais pour les motiver: Si j'essaie d'estimer la moyenne d'une variable aléatoire qui suit une distribution normale avec une variance connue, j'ai lu que le fait de mettre un uniforme avant sur la moyenne donne une distribution postérieure proportionnelle à …

2
Évaluer la distribution prédictive postérieure dans la régression linéaire bayésienne
Je ne sais pas comment évaluer la distribution prédictive postérieure de la régression linéaire bayésienne, après le cas de base décrit ici à la page 3, et copié ci-dessous. p(y~∣y)=∫p(y~∣β,σ2)p(β,σ2∣y)p(y~∣y)=∫p(y~∣β,σ2)p(β,σ2∣y) p(\tilde y \mid y) = \int p(\tilde y \mid \beta, \sigma^2) p(\beta, \sigma^2 \mid y) Le cas de base est …

2
Stan fait-il des postérieurs prédictifs?
Stan (en particulier, rstan) a-t-il des installations intégrées pour générer des distributions postérieures prédictives? Il n'est pas difficile de générer la distribution à partir du stan fit, mais je préfère ne pas réinventer la roue.



3
MCMC pour gérer les problèmes de vraisemblance plate
J'ai une probabilité assez faible conduisant l'échantillonneur Metropolis-Hastings à se déplacer dans l'espace des paramètres de manière très irrégulière, c'est-à-dire qu'aucune convergence ne peut être atteinte quels que soient les paramètres de distribution de la proposition (dans mon cas, il est gaussien). Il n'y a pas de grande complexité dans …

2
Configuration d'un algorithme de simulation pour vérifier l'étalonnage des probabilités postérieures bayésiennes
Déterminer comment simuler quelque chose est souvent le meilleur moyen de comprendre les principes sous-jacents. Je ne sais pas exactement comment simuler ce qui suit. Supposer que Oui∼ N( μ ,σ2)Oui∼N(μ,σ2)Y \sim N(\mu, \sigma^{2}) et cela μμ\mu a une distribution antérieure qui est N( γ,τ2)N(γ,τ2)N(\gamma, \tau^{2}). Basé sur un échantillon …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.