une méthode d'estimation des paramètres d'un modèle statistique en choisissant la valeur du paramètre qui optimise la probabilité d'observer l'échantillon donné.
Pouvez-vous fournir un exemple d'estimateur MLE de la moyenne biaisée? Je ne cherche pas d'exemple qui casse les estimateurs MLE en général en violant les conditions de régularité. Tous les exemples que je peux voir sur Internet se réfèrent à la variance, et je n'arrive pas à trouver quoi que …
Cette question de validation croisée portant sur la simulation d'un échantillon conditionnel à une somme fixe m'a rappelé un problème posé par George Casella . Étant donné un modèle paramétrique f(x|θ)f(x|θ)f(x|\theta) et un échantillon iid de ce modèle , le MLE de est donné par Pour une valeur donnée de …
Question La variance d'une distribution binomiale négative (NB) est toujours supérieure à sa moyenne. Lorsque la moyenne d'un échantillon est supérieure à sa variance, essayer d'ajuster les paramètres d'un NB avec une probabilité maximale ou avec une estimation de moment échouera (il n'y a pas de solution avec des paramètres …
Ceci est en partie motivé par la question suivante et la discussion qui suit. Supposons que l'échantillon iid soit observé, Xi∼F(x,θ)Xi∼F(x,θ)X_i\sim F(x,\theta) . Le but est d'estimer θθ\theta . Mais l'échantillon d'origine n'est pas disponible. Ce que nous avons à la place, ce sont quelques statistiques de l'échantillon . Supposons …
Nous travaillons avec quelques régressions logistiques et nous avons réalisé que la probabilité moyenne estimée est toujours égale à la proportion de celles de l'échantillon; c'est-à-dire que la moyenne des valeurs ajustées est égale à la moyenne de l'échantillon. Quelqu'un peut-il m'expliquer la raison ou me donner une référence où …
Des questions): Quelle est l'idée et l'intuition derrière l'estimation du maximum de vraisemblance (QMLE; également connue sous le nom d'estimation du pseudo maximum de vraisemblance, PMLE)? Qu'est-ce qui fait que l'estimateur fonctionne lorsque la distribution d'erreur réelle ne correspond pas à la distribution d'erreur supposée? Le site Wikipedia pour QMLE …
Dans le cadre du maximum de vraisemblance standard (iid échantillon d'une certaine distribution de densité f y ( y | θ 0 )) et dans le cas d'un modèle correctement spécifié, les informations de Fisher sont données parY1,…,YnY1,…,YnY_{1}, \ldots, Y_{n}fy(y|θ0fy(y|θ0f_{y}(y|\theta_{0} I(θ)=−Eθ0[∂2θ2lnfy(θ)]I(θ)=−Eθ0[∂2θ2lnfy(θ)]I(\theta) = -\mathbb{E}_{\theta_{0}}\left[\frac{\partial^{2}}{\theta^{2}}\ln f_{y}(\theta) \right] où l'attente est prise par …
Comment ajuster les paramètres d'une distribution t, c'est-à-dire les paramètres correspondant à la «moyenne» et à «l'écart-type» d'une distribution normale. Je suppose qu'ils sont appelés «moyenne» et «échelle / degrés de liberté» pour une distribution t? Le code suivant entraîne souvent des erreurs «échec de l'optimisation». library(MASS) fitdistr(x, "t") Dois-je …
J'essaie de reproduire avec optimles résultats d'une simple régression linéaire équipée glmou même de nlsfonctions R. Les estimations des paramètres sont les mêmes, mais l'estimation de la variance résiduelle et les erreurs-types des autres paramètres ne sont pas les mêmes, en particulier lorsque la taille de l'échantillon est faible. Je …
J'essaie de prouver que la matrice d'information observée évaluée à l'estimateur du maximum de vraisemblance faiblement cohérent (MLE) est un estimateur faiblement cohérent de la matrice d'information attendue. C'est un résultat largement cité mais personne ne donne de référence ou de preuve (j'ai épuisé je pense les 20 premières pages …
L'estimation des paramètres à l'aide de l'estimation du maximum de vraisemblance (MLE) implique l'évaluation de la fonction de vraisemblance, qui met en correspondance la probabilité que l'échantillon (X) se produise avec les valeurs (x) sur l'espace des paramètres (θ) étant donné une famille de distribution (P (X = x | …
Le processus exponentiel univarié de Hawkes est un processus ponctuel auto-excitant avec un taux d'arrivée d'événements de: λ(t)=μ+∑ti<tαe−β(t−ti)λ(t)=μ+∑ti<tαe−β(t−ti) \lambda(t) = \mu + \sum\limits_{t_i<t}{\alpha e^{-\beta(t-t_i)}} où sont les heures d'arrivée des événements.t1,..tnt1,..tn t_1,..t_n La fonction de vraisemblance logarithmique est −tnμ+αβ∑(e−β(tn−ti)−1)+∑i<jln(μ+αe−β(tj−ti))−tnμ+αβ∑(e−β(tn−ti)−1)+∑i<jln(μ+αe−β(tj−ti)) - t_n \mu + \frac{\alpha}{\beta} \sum{( e^{-\beta(t_n-t_i)}-1 )} + \sum\limits_{i<j}{\ln(\mu+\alpha e^{-\beta(t_j-t_i)})} …
Je suis confus quant à la méthode du maximum de vraisemblance par rapport, par exemple, au calcul de la moyenne arithmétique. Quand et pourquoi la probabilité maximale produit-elle de "meilleures" estimations que, par exemple, la moyenne arithmétique? Comment est-ce vérifiable?
Diverses descriptions sur la sélection des modèles sur les effets aléatoires des modèles mixtes linéaires indiquent l'utilisation de REML. Je connais la différence entre REML et ML à un certain niveau, mais je ne comprends pas pourquoi REML devrait être utilisé parce que ML est biaisé. Par exemple, est-ce mal …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.