une méthode d'estimation des paramètres d'un modèle statistique en choisissant la valeur du paramètre qui optimise la probabilité d'observer l'échantillon donné.
Quelqu'un pourrait-il m'expliquer de manière détaillée sur l'estimation du maximum de vraisemblance (MLE) en termes simples? J'aimerais connaître le concept sous-jacent avant de passer à la dérivation ou à l'équation mathématique.
J'ai lu dans le résumé de cet article que: "La procédure de maximum de vraisemblance (ML) de Hartley aud Rao est modifiée en adaptant une transformation de Patterson et Thompson qui partage la vraisemblance en normalisant la normalité en deux parties, l’une étant exempte d’effets fixes. Maximiser cette partie donne …
Pour une étude de simulation , je dois générer des variables aléatoires qui montrent une corrélation prefined (population) à une variable existante .YYY J'ai examiné les Rpackages copulaet ceux CDVinequi peuvent produire des distributions multivariées aléatoires avec une structure de dépendance donnée. Cependant, il n'est pas possible de fixer l'une …
Les estimateurs de maximum de vraisemblance (MLE) sont asymptotiquement efficaces; nous constatons le résultat pratique dans la mesure où elles donnent souvent de meilleurs résultats que les estimations fondées sur la méthode des moments (MoM) (lorsqu'elles diffèrent), même pour des échantillons de petite taille Ici, "mieux que" signifie "en général", …
Il existe plusieurs discussions sur ce site pour des recommandations de livres sur les statistiques d’introduction et l’apprentissage automatique, mais je cherche un texte sur les statistiques avancées, comprenant, par ordre de priorité: maximum de vraisemblance, modèles linéaires généralisés, analyse en composantes principales, modèles non linéaires . J'ai essayé les …
Ok, c'est une question assez fondamentale, mais je suis un peu confus. Dans ma thèse j'écris: Les erreurs types peuvent être trouvées en calculant l'inverse de la racine carrée des éléments diagonaux de la matrice (observée) de Fisher Information: -logLI(μ,σ2)=H-1sμ^,σ^2=1I(μ^,σ^2)−−−−−−√sμ^,σ^2=1I(μ^,σ^2)\begin{align*} s_{\hat{\mu},\hat{\sigma}^2}=\frac{1}{\sqrt{\mathbf{I}(\hat{\mu},\hat{\sigma}^2)}} \end{align*} Etant donné que la commande d'optimisation dans R …
Cette question me laisse perplexe depuis longtemps. Je comprends l'utilisation de 'log' pour maximiser la probabilité, je ne pose donc pas la question de 'log'. Ma question est la suivante: puisque maximiser la probabilité de log équivaut à minimiser la "probabilité de log négative" (NLL), pourquoi avons-nous inventé cette NLL? …
Je suis curieux de connaître la nature de . Quelqu'un peut-il dire quelque chose d'intuitif sur "Que dit propos des données?" Σ - 1Σ−1Σ−1\Sigma^{-1}Σ−1Σ−1\Sigma^{-1} Modifier: Merci pour les réponses Après avoir suivi d'excellents cours, j'aimerais ajouter quelques points: C'est une mesure d'information, c'est-à-dire que est la quantité d'informations le long …
L'exemple de Stein montre que l'estimation du maximum de vraisemblance de variables normalement distribuées avec les moyennes et les variances est inadmissible (sous une fonction de perte au carré) si et si . Pour une preuve plus nette, voir le premier chapitre de Inférence à grande échelle: méthodes empiriques bayésiennes …
Je me demande si cela fait une différence d'interprétation si seules les variables dépendantes, indépendantes et dépendantes, ou uniquement les variables indépendantes sont transformées par un journal. Considérons le cas de log(DV) = Intercept + B1*IV + Error Je peux interpréter l'IV comme l'augmentation en pourcentage, mais comment cela change-t-il …
Cette question me hante depuis plus d'un mois. Le numéro de février 2015 d' Amstat News contient un article du professeur Berkeley, Mark van der Laan, qui réprimande les gens pour l'utilisation de modèles inexacts. Il déclare qu'en utilisant des modèles, la statistique est alors un art plutôt qu'une science. …
Quelle est la principale différence entre l'estimation du maximum de vraisemblance (EVM) et l'estimation par la méthode des moindres carrés (EVC)? Pourquoi ne pouvons-nous pas utiliser MLE pour prédire les valeurs dans la régression linéaire et inversement?yyy Toute aide sur ce sujet sera grandement appréciée.
Dériver numériquement les MLE de GLMM est difficile et, dans la pratique, je sais que nous ne devrions pas utiliser l'optimisation de la force brute (par exemple, en utilisant optimune méthode simple). Mais pour mon propre but éducatif, je veux l'essayer pour m'assurer de bien comprendre le modèle (voir le …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.