Questions marquées «maximum-likelihood»

une méthode d'estimation des paramètres d'un modèle statistique en choisissant la valeur du paramètre qui optimise la probabilité d'observer l'échantillon donné.


5
Comment gérer les données hiérarchiques / imbriquées dans l'apprentissage automatique
Je vais expliquer mon problème avec un exemple. Supposons que vous souhaitiez prédire le revenu d'un individu en fonction de certains attributs: {âge, sexe, pays, région, ville}. Vous avez un ensemble de données de formation comme ça train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

3
Quel type d'information est l'information Fisher?
Supposons que nous ayons une variable aléatoire . Si était le vrai paramètre, la fonction de vraisemblance devrait être maximisée et la dérivée égale à zéro. C'est le principe de base de l'estimateur du maximum de vraisemblance.X∼f(x|θ)X∼f(x|θ)X \sim f(x|\theta)θ0θ0\theta_0 Si je comprends bien, les informations Fisher sont définies comme I(θ)=E[(∂∂θf(X|θ))2]I(θ)=E[(∂∂θf(X|θ))2]I(\theta) …

1
Estimateurs du maximum de vraisemblance pour une distribution tronquée
Considérons échantillons indépendants obtenus à partir d'une variable aléatoire qui est supposée suivre une distribution tronquée (par exemple une distribution normale tronquée ) de valeurs minimales et maximales connues (finies) et mais de paramètres inconnus et . Si suivait une distribution non tronquée, les estimateurs du maximum de vraisemblance et …


5
Estimation du maximum de vraisemblance - pourquoi elle est utilisée malgré son biais dans de nombreux cas
L'estimation du maximum de vraisemblance se traduit souvent par des estimateurs biaisés (par exemple, son estimation de la variance de l'échantillon est biaisée pour la distribution gaussienne). Qu'est-ce qui le rend si populaire? Pourquoi est-il utilisé autant? De plus, qu'est-ce qui la rend meilleure que l'approche alternative - la méthode …




4
Y a-t-il toujours un maximiseur pour tout problème MLE?
Je me demande s'il y a toujours un maximiseur pour tout problème d'estimation de vraisemblance maximale (log)? En d'autres termes, existe-t-il une distribution et certains de ses paramètres pour lesquels le problème MLE n'a pas de maximiseur? Ma question vient d'une affirmation d'un ingénieur selon laquelle la fonction de coût …


4
L'estimateur du maximum de vraisemblance sans biais est-il toujours le meilleur estimateur sans biais?
Je sais que pour les problèmes réguliers, si nous avons un meilleur estimateur régulier sans biais, ce doit être l'estimateur du maximum de vraisemblance (MLE). Mais en général, si nous avons un MLE sans biais, serait-ce aussi le meilleur estimateur sans biais (ou peut-être devrais-je l'appeler UMVUE, tant qu'il a …

2
Comment dériver la fonction de vraisemblance de la distribution binomiale pour l'estimation des paramètres?
Selon Miller and Freund's Probability and Statistics for Engineers, 8ed (pp.217-218), la fonction de vraisemblance à maximiser pour la distribution binomiale (essais de Bernoulli) est donnée comme suit : L(p)=∏ni=1pxi(1−p)1−xiL(p)=∏i=1npxi(1−p)1−xiL(p) = \prod_{i=1}^np^{x_i}(1-p)^{1-x_i} Comment arriver à cette équation? Cela me semble assez clair concernant les autres distributions, Poisson et Gaussienne; L(θ)=∏ni=1PDF …

1
Dans R, étant donné une sortie d'optim avec une matrice de Hesse, comment calculer les intervalles de confiance des paramètres en utilisant la matrice de Hesse?
Étant donné une sortie d'optim avec une matrice de Hesse, comment calculer les intervalles de confiance des paramètres à l'aide de la matrice de Hesse? fit<-optim(..., hessian=T) hessian<-fit$hessian Je m'intéresse principalement au contexte de l'analyse du maximum de vraisemblance, mais je suis curieux de savoir si la méthode peut être …

4
Comment garantir les propriétés de la matrice de covariance lors de l'ajustement d'un modèle normal multivarié en utilisant le maximum de vraisemblance?
Supposons que j'ai le modèle suivant yi=f(xi,θ)+εiyi=f(xi,θ)+εiy_i=f(x_i,\theta)+\varepsilon_i où yi∈RKyi∈RKy_i\in \mathbb{R}^K , xixix_i est un vecteur de variables explicatives, θθ\theta est les paramètres de la fonction non linéaire fff et εi∼N(0,Σ)εi∼N(0,Σ)\varepsilon_i\sim N(0,\Sigma) , où ΣΣ\Sigma est naturellement la matrice K×KK×KK\times K Le but est l'habituel d'estimer θθ\theta et ΣΣ\Sigma . Le …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.