Étant donné une variable aléatoire qui résulte d'une distribution paramétrée F (X; θ) , la vraisemblance est définie comme la probabilité des données observées en fonction de θ: \ text {L} (θ) = \ text {P} (θ ; X = x)XF( X; θ )θ :L( θ )=P( θ ;X= x )
Cette question est motivée par celle-ci . J'ai recherché deux sources et c'est ce que j'ai trouvé. A. van der Vaart, Statistiques asymptotiques: Il est rarement possible de calculer explicitement une vraisemblance de profil, mais son évaluation numérique est souvent réalisable. Ensuite, la vraisemblance du profil peut servir à réduire …
Comment fonctionne réellement l’estimation des paramètres / la formation de la régression logistique? Je vais essayer de mettre ce que j'ai jusqu'à présent. La sortie est y la sortie de la fonction logistique sous forme d'une probabilité dépendant de la valeur de x: P( y= 1 | x ) = …
J'ai un très grand ensemble de données et il manque environ 5% de valeurs aléatoires. Ces variables sont corrélées entre elles. L'exemple de jeu de données R suivant n'est qu'un exemple de jouet avec des données corrélées factices. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = …
Si quelqu'un a dit "Cette méthode utilise le MLE l'estimation ponctuelle pour le paramètre qui maximise , donc c'est fréquentiste; et en plus ce n'est pas bayésien."P ( x | θ )P(x|θ)\mathrm{P}(x|\theta) accepteriez-vous? Mise à jour sur le fond : j'ai récemment lu un article qui prétend être fréquentiste. Je …
Nous pouvons écrire le théorème de Bayes comme p(θ|x)=f(X|θ)p(θ)∫θf(X|θ)p(θ)dθp(θ|x)=f(X|θ)p(θ)∫θf(X|θ)p(θ)dθp(\theta|x) = \frac{f(X|\theta)p(\theta)}{\int_{\theta} f(X|\theta)p(\theta)d\theta} où est la postérieure, f (X | \ theta) est la distribution conditionnelle et p (\ theta) est la précédente.p(θ|x)p(θ|x)p(\theta|x)f(X|θ)f(X|θ)f(X|\theta)p(θ)p(θ)p(\theta) ou p(θ|x)=L(θ|x)p(θ)∫θL(θ|x)p(θ)dθp(θ|x)=L(θ|x)p(θ)∫θL(θ|x)p(θ)dθp(\theta|x) = \frac{L(\theta|x)p(\theta)}{\int_{\theta} L(\theta|x)p(\theta)d\theta} où p(θ|x)p(θ|x)p(\theta|x) est la fonction postérieure, L(θ|x)L(θ|x)L(\theta|x) est la fonction de vraisemblance et …
J'utilise le filtre de Kalman d'une manière très standard. Le système est représenté par l'équation d'état xt+1=Fxt+vt+1xt+1=Fxt+vt+1x_{t+1}=Fx_{t}+v_{t+1} et l'équation d'observation yt=Hxt+Azt+wtyt=Hxt+Azt+wty_{t}=Hx_{t}+Az_{t}+w_{t} . Les manuels scolaires enseignent que , après l' application du filtre de Kalman et d' obtenir les « prévisions d' une étape à venir x^t|t−1x^t|t−1\hat{x}_{t|t-1} (ou "estimation filtrée"), …
Selon le théorème de Bayes, . Mais selon mon texte économétrique, il est dit que . Pourquoi est-ce comme ça? Je ne comprends pas pourquoi est ignoré.P ( θ | y ) ∝ P ( y | θ ) P ( θ ) P ( y )P( y| θ)P( θ …
En général, nous maximisons une fonction L ( θ ;X1, … ,Xn) =∏i = 1nF(Xje∣ θ )L(θ;x1,…,xn)=∏i=1nf(xi∣θ) L(\theta; x_1, \ldots, x_n) = \prod_{i=1}^n f(x_i \mid \theta) où est la fonction de densité de probabilité si la distribution sous-jacente est continue, et une fonction de masse de probabilité (avec sommation au …
J'essaie simplement de recalculer avec dnorm () la log-vraisemblance fournie par la fonction logLik à partir d'un modèle lm (dans R). Cela fonctionne (presque parfaitement) pour un grand nombre de données (par exemple n = 1000): > n <- 1000 > x <- 1:n > set.seed(1) > y <- 10 …
Il y a beaucoup de questions (comme celle-ci ) sur une ambiguïté avec la formule bayésienne en cas continu. p(θ|x)=p(x|θ)⋅p(θ)p(x)p(θ|x)=p(x|θ)⋅p(θ)p(x)p(\theta | x) = \frac{p(x | \theta) \cdot p(\theta)}{p(x)} Souvent, la confusion vient du fait que la définition de la distribution conditionnelle est expliquée comme étant fonction de la donnée fixe …
Cette question a été soulevée en classe: si nous utilisons des valeurs de p pour évaluer des hypothèses sur une expérience, à quelle partie du principe de vraisemblance ne respectons-nous pas: suffisance ou conditionnalité ? Mon intuition serait de dire Suffisance , puisque le calcul d'une valeur p repose sur …
Comment interprétez-vous une courbe de survie à partir du modèle de risque proportionnel cox? Dans cet exemple de jouet, supposons que nous ayons un modèle de risque proportionnel cox sur agevariable dans les kidneydonnées et générons la courbe de survie. library(survival) fit <- coxph(Surv(time, status)~age, data=kidney) plot(conf.int="none", survfit(fit)) grid() Par …
En phylogénétique, les arbres phylogénétiques sont souvent construits à l'aide d'une analyse MLE ou bayésienne. Souvent, un a priori plat est utilisé dans l'estimation bayésienne. Si je comprends bien, une estimation bayésienne est une estimation de vraisemblance qui intègre un a priori. Ma question est, si vous utilisez un appartement …
D'après "In All Lik vraisemblance: modélisation statistique et inférence utilisant la vraisemblance" de Y. Pawitan, la probabilité d'une re-paramétrisation θ↦g(θ)=ψθ↦g(θ)=ψ\theta\mapsto g(\theta)=\psi est définie comme L∗(ψ)=max{θ:g(θ)=ψ}L(θ)L∗(ψ)=max{θ:g(θ)=ψ}L(θ) L^*(\psi)=\max_{\{\theta:g(\theta)=\psi\}} L(\theta) sorte que si ggg est un- à un, puis L∗(ψ)=L(g−1(ψ))L∗(ψ)=L(g−1(ψ))L^*(\psi)=L(g^{-1}(\psi)) (p. 45). J'essaie de montrer l'exercice 2.20 qui déclare que si θθ\theta est …
J'essaie de calculer la probabilité marginale d'un modèle statistique par les méthodes de Monte Carlo: F( x ) = ∫F( x ∣ θ ) π( θ )réθF(X)=∫F(X∣θ)π(θ)réθf(x) = \int f(x\mid\theta) \pi(\theta)\, d\theta La probabilité est bien comportée - lisse, log-concave - mais de grande dimension. J'ai essayé l'échantillonnage d'importance, mais …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.