Une distribution a priori dans les statistiques bayésiennes qui est telle que, lorsqu'elle est combinée avec la vraisemblance, le postérieur résultant est de la même famille de distributions.
Dans l'algorithme de modèle de sujet LDA, j'ai vu cette hypothèse. Mais je ne sais pas pourquoi choisir la distribution de Dirichlet? Je ne sais pas si nous pouvons utiliser la distribution uniforme sur Multinomial par paire?
Cela fait un moment que j'essaie de comprendre l'idée des prieurs conjugués dans les statistiques bayésiennes, mais je ne comprends tout simplement pas. Quelqu'un peut-il expliquer l'idée dans les termes les plus simples possibles, en utilisant peut-être le «prior gaussien» comme exemple?
Certaines distributions ont des prieurs conjugués et d'autres non. Cette distinction n'est-elle qu'un accident? Autrement dit, vous faites le calcul, et cela fonctionne d'une manière ou d'une autre, mais cela ne vous dit vraiment rien d'important sur la distribution, sauf pour le fait lui-même? Ou la présence ou l'absence d'un …
Comment procéder pour calculer un postérieur avec un N ~ (a, b) antérieur après avoir observé n points de données? Je suppose que nous devons calculer la moyenne et la variance de l'échantillon des points de données et faire une sorte de calcul qui combine le postérieur avec le précédent, …
Existe-t-il un conjugué préalable pour la distribution de Laplace ? Sinon, existe-t-il une expression de forme fermée connue qui se rapproche de la valeur postérieure pour les paramètres de la distribution de Laplace? J'ai beaucoup cherché sur Google sans succès, donc ma supposition actuelle est «non» sur les questions ci-dessus …
Outre l'utilisabilité, existe-t-il une justification épistémique (mathématique, philosophique, heuristique, etc.) pour utiliser des antérieurs conjugués? Ou est-ce juste que c'est généralement une approximation suffisamment bonne et rend les choses beaucoup plus faciles?
Lors de l'inférence de la matrice de précision ΛΛ\boldsymbol{\Lambda} d'une distribution normale utilisée pour générer NNN vecteurs D-dimension x1,..,xNx1,..,xN\mathbf{x_1},..,\mathbf{x_N} xi∼N(μ,Λ−1)xi∼N(μ,Λ−1)\begin{align} \mathbf{x_i} &\sim \mathcal{N}(\boldsymbol{\mu, \Lambda^{-1}}) \\ \end{align} nous plaçons généralement un Wishart prioritaire sur ΛΛ\boldsymbol{\Lambda} car la distribution Wishart est le conjugué avant pour la précision d'une distribution normale multivariée avec …
Les estimateurs bayésiens sont-ils à l'abri du biais de sélection? La plupart des articles qui traitent de l'estimation en haute dimension, par exemple, les données de séquence du génome entier, soulèvent souvent la question du biais de sélection. Le biais de sélection provient du fait que, bien que nous ayons …
Voici un extrait de l' introduction de Bolstad aux statistiques bayésiennes . Pour tous les experts, cela pourrait être trivial, mais je ne comprends pas comment l'auteur conclut que nous n'avons pas à faire d'intégration pour calculer la probabilité postérieure d'une certaine valeur de . Je comprends la deuxième expression …
Exemples: J'ai une phrase dans la description de poste: "Java senior engineer in UK". Je veux utiliser un modèle d'apprentissage profond pour le prédire en 2 catégories: English et IT jobs. Si j'utilise un modèle de classification traditionnel, il ne peut prédire qu'une seule étiquette avec softmaxfonction à la dernière …
Étant donné une probabilité gaussienne pour un échantillon comme avec étant l'espace des paramètres et , paramétrisations arbitraires du vecteur moyen et de la matrice de covariance.yyyp(y|θ)=N(y;μ(θ),Σ(θ))p(y|θ)=N(y;μ(θ),Σ(θ))p(y|\theta) = \mathcal{N}(y;\mu(\theta),\Sigma(\theta))ΘΘ\Thetaμ(θ)μ(θ)\mu(\theta)Σ(θ)Σ(θ)\Sigma(\theta) Est-il possible de spécifier une densité antérieure et un paramétrage du vecteur moyen et de la matrice de covariance tels que …
Est - ce que tous les prieurs conjugués doivent venir de la famille exponentielle? Sinon, quelles autres familles sont connues pour avoir / produire des prieurs conjugués?
J'ai une question sur le mélange de prieurs conjugués. J'ai appris et dit le mélange de prieurs conjugués à quelques reprises lorsque j'apprends le bayésien. Je me demande pourquoi ce théorème est si important, comment allons-nous l'appliquer lorsque nous faisons une analyse bayésienne. Pour être plus précis, un théorème de …
La fonction de vraisemblance d'une distribution lognormale est: F( x ; μ , σ) ∝∏nje11σXjeexp( -( lnXje- μ)22σ2)F(X;μ,σ)∝∏je1n1σXjeexp(-(lnXje-μ)22σ2)f(x; \mu, \sigma) \propto \prod_{i_1}^n \frac{1}{\sigma x_i} \exp \left ( - \frac{(\ln{x_i} - \mu)^2}{2 \sigma^2} \right ) et le Prior de Jeffreys est: p ( μ , σ) ∝1σ2p(μ,σ)∝1σ2p(\mu,\sigma) \propto \frac{1}{\sigma^2} donc la …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.