Questions marquées «likelihood»

Étant donné une variable aléatoire qui résulte d'une distribution paramétrée F (X; θ) , la vraisemblance est définie comme la probabilité des données observées en fonction de θ: \ text {L} (θ) = \ text {P} (θ ; X = x)XF(X;θ)θ:L(θ)=P(θ;X=x)



1
MLE d'un processus Hawkes multivarié
J'ai du mal à mettre en œuvre l'estimateur du maximum de vraisemblance pour un processus Hawkes multivarié (HP). Plus précisément, alors que l'expression analytique pour une fonction log-vraisemblance d'un HP univarié peut être trouvée facilement en ligne (par exemple Ozaki, 1979), il semble y avoir différentes versions (incohérentes ou équivalentes?) …

1
Quelle est la signification de l'exposant dans
Dans le contexte de l'inférence basée sur la vraisemblance, j'ai vu une notation concernant le ou les paramètres d'intérêt que j'ai trouvé un peu déroutante. Par exemple, une notation telle que pθ(x)pθ(x)p_{\theta}(x) et Eθ[S(θ)]Eθ[S(θ)]{\mathbb E}_{\theta}\left[S(\theta)\right]. Quelle est la signification du paramètre (θθ\theta) en notation indice ci-dessus? En d'autres termes, comment …

3
MCMC pour gérer les problèmes de vraisemblance plate
J'ai une probabilité assez faible conduisant l'échantillonneur Metropolis-Hastings à se déplacer dans l'espace des paramètres de manière très irrégulière, c'est-à-dire qu'aucune convergence ne peut être atteinte quels que soient les paramètres de distribution de la proposition (dans mon cas, il est gaussien). Il n'y a pas de grande complexité dans …

1
Étrange trace de vraisemblance de la chaîne MCMC
J'ai un modèle qui va: Single parameter -> Complex likelihood function -> Log-likelihood. J'ai exécuté une chaîne MCMC (en utilisant pymc) et tracé la trace du paramètre et la log-vraisemblance. L'estimation des paramètres s'est avérée raisonnable, mais le tracé de log-vraisemblance me semble étrange. La log-vraisemblance ne dépasse jamais une …


1
Probabilité vs probabilité
J'ai des difficultés avec Likelihoods . Je comprends le théorème de Bayes p(A|B,H)=p(B|A,H)p(A|H)p(B|H)p(A|B,H)=p(B|A,H)p(A|H)p(B|H)p(A|B, \mathcal{H}) = \frac{p(B|A, \mathcal{H}) p(A|\mathcal{H})}{p(B|\mathcal{H})} qui peut être directement déduit de l'application p(A,B)=p(B)⋅p(A|B)=p(A)p(B|A)=p(B,A)p(A,B)=p(B)⋅p(A|B)=p(A)p(B|A)=p(B,A)p(A,B) = p(B) \cdot p(A|B) = p (A) p(B|A) = p(B,A). Ainsi, dans mon interprétation, lep(⋅)p(⋅)p(\cdot)Les fonctions du théorème de Bayes sont en quelque sorte …

2
Pourquoi un modèle statistique serait-il surchargé s'il était doté d'un énorme ensemble de données?
Mon projet actuel peut m'obliger à construire un modèle pour prédire le comportement d'un certain groupe de personnes. l'ensemble de données de formation ne contient que 6 variables (id est uniquement à des fins d'identification): id, age, income, gender, job category, monthly spend dans laquelle se monthly spendtrouve la variable …
8 modeling  large-data  overfitting  clustering  algorithms  error  spatial  r  regression  predictive-models  linear-model  average  measurement-error  weighted-mean  error-propagation  python  standard-error  weighted-regression  hypothesis-testing  time-series  machine-learning  self-study  arima  regression  correlation  anova  statistical-significance  excel  r  regression  distributions  statistical-significance  contingency-tables  regression  optimization  measurement-error  loss-functions  image-processing  java  panel-data  probability  conditional-probability  r  lme4-nlme  model-comparison  time-series  probability  probability  conditional-probability  logistic  multiple-regression  model-selection  r  regression  model-based-clustering  svm  feature-selection  feature-construction  time-series  forecasting  stationarity  r  distributions  bootstrap  r  distributions  estimation  maximum-likelihood  garch  references  probability  conditional-probability  regression  logistic  regression-coefficients  model-comparison  confidence-interval  r  regression  r  generalized-linear-model  outliers  robust  regression  classification  categorical-data  r  association-rules  machine-learning  distributions  posterior  likelihood  r  hypothesis-testing  normality-assumption  missing-data  convergence  expectation-maximization  regression  self-study  categorical-data  regression  simulation  regression  self-study  self-study  gamma-distribution  modeling  microarray  synthetic-data 

2
Fonction de vraisemblance des données tronquées
J'ai un peu de mal à comprendre le concept et la dérivation de la probabilité de données tronquées. Par exemple, si je veux trouver la fonction de vraisemblance basée sur un échantillon d'une distribution, mais en prenant un échantillon de la distribution, j'observe les valeurs tronquées (où il y a …

2
Calcul de la probabilité lorsque
J'essaie de calculer cette distribution postérieure: ( θ | - ) =∏ni = 1pyjeje( 1 -pje)1 -yje∑toutθ ,pje| θ∏ni = 1pyjeje( 1 -pje)1 -yje(θ|−)=∏i=1npiyi(1−pi)1−yi∑allθ,pi|θ∏i=1npiyi(1−pi)1−yi (\theta|-)=\frac{\prod_{i=1}^{n}p_i^{y_i}(1-p_i)^{1-y_i}}{\sum_{\text{all}\,\theta,p_i|\theta}\prod_{i=1}^{n}p_i^{y_i}(1-p_i)^{1-y_i}} Le problème est que le numérateur, qui est le produit d'un tas de Bernoulli (pje,yje)Bernoulli(pi,yi)\text{Bernoulli}(p_i,y_i)les probabilités sont trop faibles. (Mannn est grande, environ 1500). Par …


1
Comment puis-je compléter le carré avec une probabilité normale et une priorité normale?
Comment puis-je compléter le carré à partir du point où je me suis arrêté, et est-ce correct jusqu'à présent? J'ai un avant normal pour ββ\beta de la forme p ( β|σ2) ∼ N( 0 ,σ2V)p(β|σ2)∼N(0,σ2V)p(\beta|\sigma^2)\sim \mathcal{N}(0,\sigma^2V), obtenir: p ( β|σ2) = ( 2 πσ2V)p2exp[ -12σ2βTβ]p(β|σ2)=(2πσ2V)p2exp⁡[-12σ2βTβ]p(\beta|\sigma^2)=(2\pi\sigma^2V)^\frac{p}{2}\exp[-\frac{1}{2\sigma^2}\beta^T\beta] où βTββTβ\beta^T\beta est ∑i = …
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.