Je lis le livre GPML et au chapitre 2 (page 15) , il explique comment effectuer une régression en utilisant le processus gaussien (GP), mais j'ai du mal à comprendre comment cela fonctionne.
Dans l'inférence bayésienne pour les modèles paramétriques, nous choisissons d'abord un a priori sur les paramètres du modèle , c'est-à-dire ; deuxièmement, étant donné les données d'apprentissage , nous calculons la vraisemblance ; et enfin nous avons le postérieur de comme , qui sera utilisé dans la distribution prédictive , et ce qui précède est ce que nous faisons dans l'inférence bayésienne pour les modèles paramétriques, non?
Eh bien, comme dit dans le livre, GP est non paramétrique, et pour autant que je le comprenne, après avoir spécifié la fonction moyenne et la fonction de covariance , nous avons un GP sur la fonction , , et c'est le prieur de . Maintenant, j'ai un ensemble de données d'entraînement sans bruit, Je pensais que je devrais calculer la probabilité puis le postérieur , et enfin utiliser le postérieur pour faire des prédictions.
CEPENDANT, ce n'est pas ce que fait le livre! Je veux dire, après avoir spécifié le précédent , il ne calcule pas la probabilité et la position postérieure, mais va simplement de l'avant à la prédiction prédictive.
Question:
1) Pourquoi ne pas calculer la probabilité et la valeur postérieure? Tout simplement parce que GP n'est pas paramétrique, donc nous ne faisons pas cela?
2) Comme ce qui est fait dans le livre (page 15 ~ 16), il dérive la distribution prédictive via la distribution conjointe de l'ensemble de données de formation et de l'ensemble de données de test , qui est appelé prioritaire conjoint . D'accord, cela me confond beaucoup, pourquoi les joindre ensemble?
3) J'ai vu certains articles appeler la variable latente , pourquoi?