Questions marquées «likelihood»

Étant donné une variable aléatoire qui résulte d'une distribution paramétrée F (X; θ) , la vraisemblance est définie comme la probabilité des données observées en fonction de θ: \ text {L} (θ) = \ text {P} (θ ; X = x)XF(X;θ)θ:L(θ)=P(θ;X=x)

10
Quelle est la différence entre «vraisemblance» et «probabilité»?
La page wikipedia affirme que probabilité et probabilité sont des concepts distincts. Dans le langage non technique, le terme "probabilité" est généralement synonyme de "probabilité", mais dans l’utilisation statistique, il existe une distinction claire entre les perspectives: le nombre représentant la probabilité de certains résultats observés étant donné un ensemble …

3
Un exemple: régression LASSO utilisant glmnet pour les résultats binaires
Je commence à me familiariser avec l’utilisation de glmnetavec LASSO Regression, où mon résultat d’intérêt est dichotomique. J'ai créé un petit cadre de données fictif ci-dessous: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- …
78 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 



7
Pourquoi quelqu'un utiliserait-il une approche bayésienne avec un précédent non approprié «non informatif» au lieu de l'approche classique?
Si l’intérêt consiste simplement à estimer les paramètres d’un modèle (estimation ponctuelle et / ou par intervalle) et que les informations préalables ne sont pas fiables, faibles (je sais que cela est un peu vague, mais j’essaie d’établir un scénario où a priori est difficile) ... Pourquoi quelqu'un choisirait-il d'utiliser …

9
Pourquoi les gens utilisent-ils les valeurs p au lieu de calculer la probabilité du modèle à partir des données?
En gros, une valeur-p donne une probabilité du résultat observé d'une expérience étant donné l'hypothèse (modèle). Ayant cette probabilité (valeur p), nous voulons juger notre hypothèse (quelle est sa probabilité). Mais ne serait-il pas plus naturel de calculer la probabilité de l'hypothèse en fonction du résultat observé? En plus de …

3
Comment définir rigoureusement la probabilité?
La probabilité pourrait être définie de plusieurs façons, par exemple: la fonction de qui mappe à ie .LLLΘ×XΘ×X\Theta\times{\cal X}(θ,x)(θ,x)(\theta,x)L(θ∣x)L(θ∣x)L(\theta \mid x)L:Θ×X→RL:Θ×X→RL:\Theta\times{\cal X} \rightarrow \mathbb{R} la fonction aléatoireL(⋅∣X)L(⋅∣X)L(\cdot \mid X) on pourrait aussi considérer que la vraisemblance n'est que la vraisemblance "observée"L(⋅∣xobs)L(⋅∣xobs)L(\cdot \mid x^{\text{obs}}) en pratique, la vraisemblance n'apporte des informations …

3
Quel type d'information est l'information Fisher?
Supposons que nous ayons une variable aléatoire . Si était le vrai paramètre, la fonction de vraisemblance devrait être maximisée et la dérivée égale à zéro. C'est le principe de base de l'estimateur du maximum de vraisemblance.X∼f(x|θ)X∼f(x|θ)X \sim f(x|\theta)θ0θ0\theta_0 Si je comprends bien, les informations Fisher sont définies comme I(θ)=E[(∂∂θf(X|θ))2]I(θ)=E[(∂∂θf(X|θ))2]I(\theta) …




5
Intuition du théorème de Bayes
J'ai essayé de développer une compréhension basée sur l'intuition du théorème de Bayes en termes de probabilité antérieure , postérieure , de probabilité et marginale . Pour cela, j'utilise l'équation suivante: où représente une hypothèse ou une croyance et représente des données ou des preuves. J'ai compris le concept du …

3
Y a-t-il une différence entre fréquentiste et bayésien sur la définition de la vraisemblance?
Certaines sources affirment que la fonction de vraisemblance n'est pas une probabilité conditionnelle, d'autres le disent. C'est très déroutant pour moi. Selon la plupart des sources que j'ai vues, la probabilité d'une distribution avec le paramètre , devrait être un produit de fonctions de masse de probabilité pour n échantillons …

1
Conversion (normalisation) de très petites valeurs de vraisemblance en probabilités
J'écris un algorithme dans lequel, étant donné un modèle, je calcule les probabilités pour une liste d'ensembles de données, puis je dois normaliser (selon la probabilité) chacune des probabilités. Donc, quelque chose comme [0,00043, 0,00004, 0,00321] pourrait être converti en peut être comme [0,2, 0,03, 0,77]. Mon problème est que …


En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.