Dans le théorème bayésien, , et dans le livre que je lis, est appelé le vraisemblance , mais je suppose que c'est juste la probabilité conditionnelle de étant donné , non?
L' estimation du maximum de vraisemblance tente de maximiser , non? Si oui, je suis très confus, car sont tous les deux des variables aléatoires, non? Pour maximiser suffit de découvrir le ? Encore un problème, si ces 2 variables aléatoires sont indépendantes, alors est juste , non? La maximisation de revient alors à maximiser .
Ou peut-être que est fonction de certains paramètres , c'est-à-dire , et MLE essaie de trouver le qui peut maximiser ? Ou même que est en fait les paramètres du modèle, pas une variable aléatoire, maximiser la probabilité est de trouver le ?
MISE À JOUR
Je suis un novice en apprentissage automatique, et ce problème est une confusion avec ce que j'ai lu dans un didacticiel d'apprentissage automatique. Le voici, étant donné un ensemble de données observé , les valeurs cibles sont , et j'essaie d'ajuster un modèle sur cet ensemble de données , donc je suppose que, étant donné , a une forme de distribution nommée paramétrée par , c'est-à-dire , et je suppose que c'est la probabilité postérieure , non?
Maintenant, pour estimer la valeur de , j'utilise MLE. OK, voici mon problème, je pense que la probabilité est , non? Maximiser la probabilité signifie que je devrais choisir le bon et ?
Si ma compréhension de la probabilité est fausse, veuillez me montrer la bonne façon.