Communauté SE, j'espère avoir un aperçu du problème suivant. Étant donné un modèle de régression linéaire simple
Y=Xβ+ϵ , where Y∈RT,X∈RT×N.
Sous une fonction de vraisemblance gaussienne avec des termes d'erreur homoscédastiques, la distribution conditionnelle de la variable dépendante prend la forme
Y|β,h∼N(Xβ,h−1I).
J'attribue un conjugué conditionnel (non informatif) avant pour
β et
h
β|h∼N(0,cI),h∼G(s−2,v)
étaient
c→∞,v→0. C’est un résultat standard que la distribution marginale postérieure de
β est t multivarié avec
β|D∼tN(β^,Σ^,T).
Ce qui se passe si
(X′X)est singulier? Dans la régression standard, je choisirais le pseudoinverse généralisé de Moore-Penrose
(X′X)+ à la place d'utiliser
(X′X)−1. Cependant, dans ce cas, la variance postérieure
Σ^:=c(X′X)−1 serait également singulier et je doute que le
t-La distribution est encore bien définie. Est-ce correct?
Et encore plus distrayant pour moi: supposons que je ne suis pas vraiment intéressé par la distribution postérieure de β mais juste une combinaison linéaire z:=Aβ où A∈RN−1×N, et |AΣ^A′|≠0. Je pourrais échantillonner à partir de cette distribution bien que sa construction soit basée sur quelque chose qui n'est pas vraiment défini (la distribution deβ). Existe-t-il un moyen de gérer cela? Ou y a-t-il une erreur essentielle dans ma question qui rend mon argument obsolète?