J'ai cette confusion liée aux avantages des processus gaussiens. Je veux le comparer à une simple régression linéaire, où nous avons défini que la fonction linéaire modélise les données.
Cependant, dans les processus gaussiens, nous définissons la distribution des fonctions signifie que nous ne définissons pas spécifiquement que la fonction doit être linéaire. Nous pouvons définir un a priori sur la fonction qui est le a priori gaussien qui définit des caractéristiques telles que le degré de fluidité de la fonction et tout.
Nous n'avons donc pas à définir explicitement ce que devrait être le modèle. Cependant, j'ai des questions. Nous avons une vraisemblance marginale et en l'utilisant, nous pouvons régler les paramètres de la fonction de covariance de l'a priori gaussien. Cela revient donc à définir le type de fonction qu'elle devrait être, n'est-ce pas?
Cela revient à la même chose définir les paramètres même si en GP ce sont des hyperparamètres. Par exemple dans cet article . Ils ont défini que la fonction moyenne du GP est quelque chose comme
Donc, définitivement, le modèle / fonction est défini n'est-ce pas. Alors, quelle est la différence dans la définition de la fonction comme linéaire comme dans le LR.
Je n'ai tout simplement pas compris quel est l'avantage d'utiliser GP