Questions marquées «maximum-likelihood»

une méthode d'estimation des paramètres d'un modèle statistique en choisissant la valeur du paramètre qui optimise la probabilité d'observer l'échantillon donné.




2
Pour quels modèles le biais du MLE chute-t-il plus vite que la variance?
θ^θ^\hat\thetaθ∗θ∗\theta^*nnn∥θ^−θ∗∥‖θ^−θ∗‖\lVert\hat\theta-\theta^*\rVertO(1/n−−√)O(1/n)O(1/\sqrt n)∥Eθ^−θ∗∥‖Eθ^−θ∗‖\lVert \mathbb E\hat\theta - \theta^*\rVert∥Eθ^−θ^∥‖Eθ^−θ^‖\lVert \mathbb E\hat\theta - \hat\theta\rVertO(1/n−−√)O(1/n)O(1/\sqrt{n}) Je m'intéresse aux modèles qui ont un biais qui rétrécit plus rapidement que O(1/n−−√)O(1/n)O(1/\sqrt n) , mais où l'erreur ne diminue pas à ce rythme plus rapide car l'écart se rétrécit toujours comme O(1/n−−√)O(1/n)O(1/\sqrt n) . En particulier, je voudrais …

1
Probabilité maximale restreinte avec un rang de colonne inférieur à la totalité de
Cette question traite de l'estimation du maximum de vraisemblance restreint (REML) dans une version particulière du modèle linéaire, à savoir: Y=X(α)β+ϵ,ϵ∼Nn(0,Σ(α)),Y=X(α)β+ϵ,ϵ∼Nn(0,Σ(α)), Y = X(\alpha)\beta + \epsilon, \\ \epsilon\sim N_n(0, \Sigma(\alpha)), où X(α)X(α)X(\alpha) est une matrice ( n×pn×pn \times p ) paramétrée par α∈Rkα∈Rk\alpha \in \mathbb R^k , tout comme Σ(α)Σ(α)\Sigma(\alpha) …

1
Pourquoi devrions-nous discuter des comportements de convergence de différents estimateurs dans différentes topologies?
Dans le premier chapitre de l'ouvrage Algebraic Geometry and Statistical Learning Theory qui parle de la convergence des estimations dans différents espaces fonctionnels, il mentionne que l'estimation bayésienne correspond à la topologie de la distribution de Schwartz, tandis que l'estimation du maximum de vraisemblance correspond à la topologie sup-normale (à …

1
Caret glmnet vs cv.glmnet
Il semble y avoir beaucoup de confusion dans la comparaison de l'utilisation à l' glmnetintérieur caretpour rechercher un lambda optimal et à utiliser cv.glmnetpour faire la même tâche. De nombreuses questions ont été posées, par exemple: Modèle de classification train.glmnet vs cv.glmnet? Quelle est la bonne façon d'utiliser glmnet avec …


1
Une régression logistique maximisant la vraisemblance maximise-t-elle aussi nécessairement l'ASC par rapport aux modèles linéaires?
Étant donné un ensemble de données avec des résultats binaires y∈{0,1}ny∈{0,1}ny\in\{0,1\}^n et une matrice prédictive X∈Rn×pX∈Rn×pX\in\mathbb{R}^{n\times p} , le modèle de régression logistique standard estime les coefficients βMLEβMLE\beta_{MLE} qui maximisent la vraisemblance binomiale. Lorsque XXX est de rang complet βMLEβMLE\beta_{MLE} est unique; lorsque la séparation parfaite n'est pas présente, elle …


1
L'inférence conditionnelle fréquentiste est-elle toujours utilisée dans la pratique?
J'ai récemment passé en revue quelques vieux articles de Nancy Reid, Barndorff-Nielsen, Richard Cox et, oui, un petit Ronald Fisher sur le concept de "l'inférence conditionnelle" dans le paradigme fréquentiste, ce qui semble signifier que les inférences sont basées en considérant uniquement les "sous-ensemble pertinent" de l'espace d'échantillonnage, et non …


3
Régression linéaire: toute distribution non normale donnant l'identité de l'OLS et du MLE?
Cette question est inspirée de la longue discussion dans les commentaires ici: Comment la régression linéaire utilise-t-elle la distribution normale? Dans le modèle de régression linéaire habituel, pour plus de simplicité, écrit ici avec un seul prédicteur: où les sont des constantes connues et sont des termes d'erreur indépendants de …


1
MLE du paramètre de localisation dans une distribution de Cauchy
Après centrage, les deux mesures x et −x peuvent être supposées être des observations indépendantes d'une distribution de Cauchy avec fonction de densité de probabilité: f(x:θ)=f(x:θ)=f(x :\theta) = 1π(1+(x−θ)2)1π(1+(x−θ)2)1\over\pi (1+(x-\theta)^2) ,−∞&lt;x&lt;∞,−∞&lt;x&lt;∞, -∞ < x < ∞ Montrer que si le MLE de θ est 0, mais si x 2 &gt; …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.