Questions marquées «likelihood»

Étant donné une variable aléatoire qui résulte d'une distribution paramétrée F (X; θ) , la vraisemblance est définie comme la probabilité des données observées en fonction de θ: \ text {L} (θ) = \ text {P} (θ ; X = x)XF(X;θ)θ:L(θ)=P(θ;X=x)

2
Hesse de vraisemblance de profil utilisée pour l'estimation d'erreur standard
Cette question est motivée par celle-ci . J'ai recherché deux sources et c'est ce que j'ai trouvé. A. van der Vaart, Statistiques asymptotiques: Il est rarement possible de calculer explicitement une vraisemblance de profil, mais son évaluation numérique est souvent réalisable. Ensuite, la vraisemblance du profil peut servir à réduire …


5
Comment effectuer l'imputation de valeurs dans un très grand nombre de points de données?
J'ai un très grand ensemble de données et il manque environ 5% de valeurs aléatoires. Ces variables sont corrélées entre elles. L'exemple de jeu de données R suivant n'est qu'un exemple de jouet avec des données corrélées factices. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 


3
Probabilité vs distribution conditionnelle pour l'analyse bayésienne
Nous pouvons écrire le théorème de Bayes comme p(θ|x)=f(X|θ)p(θ)∫θf(X|θ)p(θ)dθp(θ|x)=f(X|θ)p(θ)∫θf(X|θ)p(θ)dθp(\theta|x) = \frac{f(X|\theta)p(\theta)}{\int_{\theta} f(X|\theta)p(\theta)d\theta} où est la postérieure, f (X | \ theta) est la distribution conditionnelle et p (\ theta) est la précédente.p(θ|x)p(θ|x)p(\theta|x)f(X|θ)f(X|θ)f(X|\theta)p(θ)p(θ)p(\theta) ou p(θ|x)=L(θ|x)p(θ)∫θL(θ|x)p(θ)dθp(θ|x)=L(θ|x)p(θ)∫θL(θ|x)p(θ)dθp(\theta|x) = \frac{L(\theta|x)p(\theta)}{\int_{\theta} L(\theta|x)p(\theta)d\theta} où p(θ|x)p(θ|x)p(\theta|x) est la fonction postérieure, L(θ|x)L(θ|x)L(\theta|x) est la fonction de vraisemblance et …

3
Pourquoi la probabilité dans le filtre de Kalman est-elle calculée en utilisant des résultats de filtre au lieu de résultats plus fluides?
J'utilise le filtre de Kalman d'une manière très standard. Le système est représenté par l'équation d'état xt+1=Fxt+vt+1xt+1=Fxt+vt+1x_{t+1}=Fx_{t}+v_{t+1} et l'équation d'observation yt=Hxt+Azt+wtyt=Hxt+Azt+wty_{t}=Hx_{t}+Az_{t}+w_{t} . Les manuels scolaires enseignent que , après l' application du filtre de Kalman et d' obtenir les « prévisions d' une étape à venir x^t|t−1x^t|t−1\hat{x}_{t|t-1} (ou "estimation filtrée"), …




2
Pourquoi ne pas utiliser le théorème de Bayes sous la forme ?
Il y a beaucoup de questions (comme celle-ci ) sur une ambiguïté avec la formule bayésienne en cas continu. p(θ|x)=p(x|θ)⋅p(θ)p(x)p(θ|x)=p(x|θ)⋅p(θ)p(x)p(\theta | x) = \frac{p(x | \theta) \cdot p(\theta)}{p(x)} Souvent, la confusion vient du fait que la définition de la distribution conditionnelle est expliquée comme étant fonction de la donnée fixe …

1
Valeurs P et principe de vraisemblance
Cette question a été soulevée en classe: si nous utilisons des valeurs de p pour évaluer des hypothèses sur une expérience, à quelle partie du principe de vraisemblance ne respectons-nous pas: suffisance ou conditionnalité ? Mon intuition serait de dire Suffisance , puisque le calcul d'une valeur p repose sur …

4
Comment interpréter une courbe de survie du modèle de risque de Cox?
Comment interprétez-vous une courbe de survie à partir du modèle de risque proportionnel cox? Dans cet exemple de jouet, supposons que nous ayons un modèle de risque proportionnel cox sur agevariable dans les kidneydonnées et générons la courbe de survie. library(survival) fit <- coxph(Surv(time, status)~age, data=kidney) plot(conf.int="none", survfit(fit)) grid() Par …

1
Une estimation bayésienne avec un «a priori plat» est-elle identique à une estimation du maximum de vraisemblance?
En phylogénétique, les arbres phylogénétiques sont souvent construits à l'aide d'une analyse MLE ou bayésienne. Souvent, un a priori plat est utilisé dans l'estimation bayésienne. Si je comprends bien, une estimation bayésienne est une estimation de vraisemblance qui intègre un a priori. Ma question est, si vous utilisez un appartement …

1
Informations de Fisher observées en cours de transformation
D'après "In All Lik vraisemblance: modélisation statistique et inférence utilisant la vraisemblance" de Y. Pawitan, la probabilité d'une re-paramétrisation θ↦g(θ)=ψθ↦g(θ)=ψ\theta\mapsto g(\theta)=\psi est définie comme L∗(ψ)=max{θ:g(θ)=ψ}L(θ)L∗(ψ)=max{θ:g(θ)=ψ}L(θ) L^*(\psi)=\max_{\{\theta:g(\theta)=\psi\}} L(\theta) sorte que si ggg est un- à un, puis L∗(ψ)=L(g−1(ψ))L∗(ψ)=L(g−1(ψ))L^*(\psi)=L(g^{-1}(\psi)) (p. 45). J'essaie de montrer l'exercice 2.20 qui déclare que si θθ\theta est …

2
Estimateur MCMC robuste de vraisemblance marginale?
J'essaie de calculer la probabilité marginale d'un modèle statistique par les méthodes de Monte Carlo: F( x ) = ∫F( x ∣ θ ) π( θ )réθF(X)=∫F(X∣θ)π(θ)réθf(x) = \int f(x\mid\theta) \pi(\theta)\, d\theta La probabilité est bien comportée - lisse, log-concave - mais de grande dimension. J'ai essayé l'échantillonnage d'importance, mais …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.