une méthode d'estimation des paramètres d'un modèle statistique en choisissant la valeur du paramètre qui optimise la probabilité d'observer l'échantillon donné.
J'ai lu cette page: http://neuralnetworksanddeeplearning.com/chap3.html et il a dit que la couche de sortie sigmoïde avec entropie croisée est assez similaire à la couche de sortie softmax avec log-vraisemblance. que se passe-t-il si j'utilise sigmoïde avec log-vraisemblance ou softmax avec entropie croisée dans la couche de sortie? ça va? parce …
Je vais expliquer mon problème avec un exemple. Supposons que vous souhaitiez prédire le revenu d'un individu en fonction de certains attributs: {âge, sexe, pays, région, ville}. Vous avez un ensemble de données de formation comme ça train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, …
Supposons que nous ayons une variable aléatoire . Si était le vrai paramètre, la fonction de vraisemblance devrait être maximisée et la dérivée égale à zéro. C'est le principe de base de l'estimateur du maximum de vraisemblance.X∼f(x|θ)X∼f(x|θ)X \sim f(x|\theta)θ0θ0\theta_0 Si je comprends bien, les informations Fisher sont définies comme I(θ)=E[(∂∂θf(X|θ))2]I(θ)=E[(∂∂θf(X|θ))2]I(\theta) …
Considérons échantillons indépendants obtenus à partir d'une variable aléatoire qui est supposée suivre une distribution tronquée (par exemple une distribution normale tronquée ) de valeurs minimales et maximales connues (finies) et mais de paramètres inconnus et . Si suivait une distribution non tronquée, les estimateurs du maximum de vraisemblance et …
J'ai entendu parler de la probabilité empirique d'Owen, mais jusqu'à récemment, je n'y ai pas prêté attention avant de l'avoir trouvé dans un document d'intérêt ( Mengersen et al. 2012 ). Dans mes efforts pour le comprendre, j'ai glané que la probabilité des données observées est représentée comme , où …
L'estimation du maximum de vraisemblance se traduit souvent par des estimateurs biaisés (par exemple, son estimation de la variance de l'échantillon est biaisée pour la distribution gaussienne). Qu'est-ce qui le rend si populaire? Pourquoi est-il utilisé autant? De plus, qu'est-ce qui la rend meilleure que l'approche alternative - la méthode …
J'ai une confusion sur les estimateurs biaisés du maximum de vraisemblance (ML). Les mathématiques de l'ensemble du concept sont assez claires pour moi, mais je ne peux pas comprendre le raisonnement intuitif derrière. Étant donné un certain ensemble de données qui contient des échantillons d'une distribution, qui est elle-même fonction …
J'ai parcouru quelques guides suggérant d'utiliser le nlm de R pour une estimation du maximum de vraisemblance. Mais aucun d'entre eux (y compris la documentation de R ) ne donne beaucoup de conseils théoriques sur le moment d'utiliser ou de ne pas utiliser la fonction. Autant que je sache, nlm …
Je viens de commencer à étudier les statistiques et les modèles. Actuellement, je crois comprendre que nous utilisons le MLE pour estimer le ou les meilleurs paramètres d'un modèle. Cependant, lorsque j'essaie de comprendre le fonctionnement des réseaux de neurones, il semble qu'ils utilisent généralement une autre approche pour estimer …
Je me demande s'il y a toujours un maximiseur pour tout problème d'estimation de vraisemblance maximale (log)? En d'autres termes, existe-t-il une distribution et certains de ses paramètres pour lesquels le problème MLE n'a pas de maximiseur? Ma question vient d'une affirmation d'un ingénieur selon laquelle la fonction de coût …
Quels sont les estimateurs du maximum de vraisemblance pour les paramètres de la distribution t de Student? Existent-ils sous forme fermée? Une recherche rapide sur Google ne m'a donné aucun résultat. Aujourd'hui, je m'intéresse au cas univarié, mais je devrai probablement étendre le modèle à plusieurs dimensions. EDIT: Je suis …
Je sais que pour les problèmes réguliers, si nous avons un meilleur estimateur régulier sans biais, ce doit être l'estimateur du maximum de vraisemblance (MLE). Mais en général, si nous avons un MLE sans biais, serait-ce aussi le meilleur estimateur sans biais (ou peut-être devrais-je l'appeler UMVUE, tant qu'il a …
Selon Miller and Freund's Probability and Statistics for Engineers, 8ed (pp.217-218), la fonction de vraisemblance à maximiser pour la distribution binomiale (essais de Bernoulli) est donnée comme suit : L(p)=∏ni=1pxi(1−p)1−xiL(p)=∏i=1npxi(1−p)1−xiL(p) = \prod_{i=1}^np^{x_i}(1-p)^{1-x_i} Comment arriver à cette équation? Cela me semble assez clair concernant les autres distributions, Poisson et Gaussienne; L(θ)=∏ni=1PDF …
Étant donné une sortie d'optim avec une matrice de Hesse, comment calculer les intervalles de confiance des paramètres à l'aide de la matrice de Hesse? fit<-optim(..., hessian=T) hessian<-fit$hessian Je m'intéresse principalement au contexte de l'analyse du maximum de vraisemblance, mais je suis curieux de savoir si la méthode peut être …
Supposons que j'ai le modèle suivant yi=f(xi,θ)+εiyi=f(xi,θ)+εiy_i=f(x_i,\theta)+\varepsilon_i où yi∈RKyi∈RKy_i\in \mathbb{R}^K , xixix_i est un vecteur de variables explicatives, θθ\theta est les paramètres de la fonction non linéaire fff et εi∼N(0,Σ)εi∼N(0,Σ)\varepsilon_i\sim N(0,\Sigma) , où ΣΣ\Sigma est naturellement la matrice K×KK×KK\times K Le but est l'habituel d'estimer θθ\theta et ΣΣ\Sigma . Le …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.