Étant donné une variable aléatoire qui résulte d'une distribution paramétrée F (X; θ) , la vraisemblance est définie comme la probabilité des données observées en fonction de θ: \ text {L} (θ) = \ text {P} (θ ; X = x)XF( X; θ )θ :L( θ )=P( θ ;X= x )
La page wikipedia affirme que probabilité et probabilité sont des concepts distincts. Dans le langage non technique, le terme "probabilité" est généralement synonyme de "probabilité", mais dans l’utilisation statistique, il existe une distinction claire entre les perspectives: le nombre représentant la probabilité de certains résultats observés étant donné un ensemble …
Je commence à me familiariser avec l’utilisation de glmnetavec LASSO Regression, où mon résultat d’intérêt est dichotomique. J'ai créé un petit cadre de données fictif ci-dessous: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- …
Cette question me laisse perplexe depuis longtemps. Je comprends l'utilisation de 'log' pour maximiser la probabilité, je ne pose donc pas la question de 'log'. Ma question est la suivante: puisque maximiser la probabilité de log équivaut à minimiser la "probabilité de log négative" (NLL), pourquoi avons-nous inventé cette NLL? …
Si l’intérêt consiste simplement à estimer les paramètres d’un modèle (estimation ponctuelle et / ou par intervalle) et que les informations préalables ne sont pas fiables, faibles (je sais que cela est un peu vague, mais j’essaie d’établir un scénario où a priori est difficile) ... Pourquoi quelqu'un choisirait-il d'utiliser …
En gros, une valeur-p donne une probabilité du résultat observé d'une expérience étant donné l'hypothèse (modèle). Ayant cette probabilité (valeur p), nous voulons juger notre hypothèse (quelle est sa probabilité). Mais ne serait-il pas plus naturel de calculer la probabilité de l'hypothèse en fonction du résultat observé? En plus de …
La probabilité pourrait être définie de plusieurs façons, par exemple: la fonction de qui mappe à ie .LLLΘ×XΘ×X\Theta\times{\cal X}(θ,x)(θ,x)(\theta,x)L(θ∣x)L(θ∣x)L(\theta \mid x)L:Θ×X→RL:Θ×X→RL:\Theta\times{\cal X} \rightarrow \mathbb{R} la fonction aléatoireL(⋅∣X)L(⋅∣X)L(\cdot \mid X) on pourrait aussi considérer que la vraisemblance n'est que la vraisemblance "observée"L(⋅∣xobs)L(⋅∣xobs)L(\cdot \mid x^{\text{obs}}) en pratique, la vraisemblance n'apporte des informations …
Supposons que nous ayons une variable aléatoire . Si était le vrai paramètre, la fonction de vraisemblance devrait être maximisée et la dérivée égale à zéro. C'est le principe de base de l'estimateur du maximum de vraisemblance.X∼f(x|θ)X∼f(x|θ)X \sim f(x|\theta)θ0θ0\theta_0 Si je comprends bien, les informations Fisher sont définies comme I(θ)=E[(∂∂θf(X|θ))2]I(θ)=E[(∂∂θf(X|θ))2]I(\theta) …
J'ai entendu parler de la probabilité empirique d'Owen, mais jusqu'à récemment, je n'y ai pas prêté attention avant de l'avoir trouvé dans un document d'intérêt ( Mengersen et al. 2012 ). Dans mes efforts pour le comprendre, j'ai glané que la probabilité des données observées est représentée comme , où …
J'ai une question simple concernant la "probabilité conditionnelle" et la "probabilité". (J'ai déjà sondé cette question ici mais en vain.) Cela commence à partir de la page Wikipedia sur la probabilité . Ils disent ceci: La probabilité d'un ensemble de valeurs de paramètres, θθ\theta , compte tenu des résultatsxxx , …
C'est une question récurrente (voir cet article , cet article et cet article ), mais j'ai un tour différent. Supposons que j'ai un tas d'échantillons d'un échantillonneur MCMC générique. Pour chaque échantillon , je connais la valeur du log vraisemblance et du log prior . Si cela aide, je connais …
J'ai essayé de développer une compréhension basée sur l'intuition du théorème de Bayes en termes de probabilité antérieure , postérieure , de probabilité et marginale . Pour cela, j'utilise l'équation suivante: où représente une hypothèse ou une croyance et représente des données ou des preuves. J'ai compris le concept du …
Certaines sources affirment que la fonction de vraisemblance n'est pas une probabilité conditionnelle, d'autres le disent. C'est très déroutant pour moi. Selon la plupart des sources que j'ai vues, la probabilité d'une distribution avec le paramètre , devrait être un produit de fonctions de masse de probabilité pour n échantillons …
J'écris un algorithme dans lequel, étant donné un modèle, je calcule les probabilités pour une liste d'ensembles de données, puis je dois normaliser (selon la probabilité) chacune des probabilités. Donc, quelque chose comme [0,00043, 0,00004, 0,00321] pourrait être converti en peut être comme [0,2, 0,03, 0,77]. Mon problème est que …
Si le prieur et la probabilité sont très différents l'un de l'autre, il se produit parfois une situation où le postérieur n'est semblable à aucun d'eux. Voir par exemple cette image, qui utilise des distributions normales. Bien que cela soit mathématiquement correct, cela ne semble pas correspondre à mon intuition …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.