Réponses:
En utilisant la définition de Bayesian Data Analysis (3e éd.) , Si est une classe de distributions d'échantillonnage et est une classe de distributions antérieures pour , alors le la classe est conjuguée à si p ( y | θ ) P θ P F
Si est une classe de distributions d'échantillonnage , et est une classe de distributions antérieures pour conditionnelle à , alors la classe est un conjugué conditionnel pour si p ( y | θ , ϕ ) P θ ϕ P F
Les antérieurs conjugués conditionnellement sont pratiques pour construire un échantillonneur de Gibbs car le conditionnel complet sera une famille connue.
J'ai recherché une version électronique de Bayesian Data Analysis (3e éd.) Et je n'ai pas pu trouver une référence à semi-conjugué auparavant. Je suppose qu'il est synonyme de conjugué conditionnellement, mais si vous fournissez une référence à son utilisation dans le livre, je devrais être en mesure de fournir une définition.
Je voudrais utiliser la normale multivariée comme exemple.
Rappelons que la probabilité est donnée par
Afin de trouver un avant cette probabilité, nous pouvons choisir
Je vous assure de ne PAS vous soucier de pour l'instant; ce sont simplement des paramètres de la distribution antérieure.
Ce qui est important, cependant, c'est que ce n'est pas conjugué à la probabilité. Pour voir pourquoi, je voudrais citer une référence que j'ai trouvée en ligne.
notons que et Σ apparaissent ensemble de manière non factorisée dans la vraisemblance; par conséquent, ils seront également couplés ensemble dans la partie postérieure
La référence est "Machine Learning: A Probabilistic Perspective" par Kevin P. Murphy. Voici le lien . Vous pouvez trouver la citation dans la section 4.6 (déduction des paramètres d'un MVN) en haut de la page 135.
Pour continuer la citation,
Le précédent ci-dessus est parfois appelé semi-conjugué ou conjugué conditionnellement , car les deux conditions, et p ( Σ | μ ) , sont individuellement conjuguées. Pour créer un a priori conjugué complet , nous devons utiliser un a priori où μ et Σ dépendent l'un de l'autre. Nous utiliserons une distribution conjointe du formulaire
L'idée ici est que la première distribution antérieure
suppose que et Σ sont séparables (ou indépendants dans un sens). Néanmoins, nous observons que dans la fonction de vraisemblance, μ et Σ ne peuvent pas être factorisés séparément, ce qui implique qu'ils ne seront pas séparables dans le postérieur (Rappel, ( Postérieur ) ∼ ( Prior ) ( Probabilité ) ). Cela montre que les antérieurs "indissociables" et les antérieurs "séparables" ne sont pas conjugués. D'autre part, en réécrivant
de sorte que et Σ dépendent l'un de l'autre (à travers p ( μ | Σ ) ), vous obtiendrez un a priori conjugué, qui est nommé a priori semi-conjugué . J'espère que cela répond à votre question.
ps : Une autre référence vraiment utile que j'ai utilisée est "Un premier cours sur les méthodes statistiques bayésiennes" de Peter D. Hoff. Voici un lien vers le livre. Vous pouvez trouver du contenu pertinent dans la section 7 à partir de la page 105, et il a une très bonne explication (et intuition) sur la distribution normale à une seule variable dans la section 5 à partir de la page 67, qui sera encore renforcée dans la section 7 lorsqu'il traitera MVN.