Certaines sources affirment que la fonction de vraisemblance n'est pas une probabilité conditionnelle, d'autres le disent. C'est très déroutant pour moi.
Selon la plupart des sources que j'ai vues, la probabilité d'une distribution avec le paramètre , devrait être un produit de fonctions de masse de probabilité pour n échantillons de x i :
Par exemple, dans la régression logistique, nous utilisons un algorithme d'optimisation pour maximiser la fonction de vraisemblance (estimation de vraisemblance maximale) afin d'obtenir les paramètres optimaux et donc le modèle LR final. Étant donné les échantillons d'apprentissage, que nous supposons indépendants les uns des autres, nous voulons maximiser le produit des probabilités (ou les fonctions de masse des probabilités conjointes). Cela me semble assez évident.
Selon la relation entre: probabilité, probabilité conditionnelle et taux d'échec , "la probabilité n'est pas une probabilité et ce n'est pas une probabilité conditionnelle". Il a également mentionné, "la probabilité est une probabilité conditionnelle uniquement dans la compréhension bayésienne de la probabilité, c'est-à-dire si vous supposez que est une variable aléatoire."
J'ai lu les différentes perspectives de traitement d'un problème d'apprentissage entre fréquentiste et bayésien.
Selon une source, pour l'inférence bayésienne, nous avons a priori , vraisemblance P ( X | θ ) , et nous voulons obtenir le P postérieur ( θ | X ) , en utilisant le théorème bayésien:
Je ne connais pas l'inférence bayésienne. Comment se fait-il que qui est la distribution des données observées conditionnelle à ses paramètres, soit aussi appelée la vraisemblance? Dans Wikipédia , il est parfois écrit L ( θ | X ) = p ( X | θ ) . Qu'est-ce que ça veut dire?
y a-t-il une différence entre les définitions fréquenciste et bayésienne sur la vraisemblance ??
Merci.
ÉDITER:
Il y a différentes façons d'interpréter le théorème de Bayes - interprétation bayésienne et interprétation Frequentist (Voir: Théorème de Bayes - Wikipedia ).