Questions marquées «maximum-likelihood»

une méthode d'estimation des paramètres d'un modèle statistique en choisissant la valeur du paramètre qui optimise la probabilité d'observer l'échantillon donné.


2
Quelle est l'estimation du maximum de vraisemblance de la covariance des données normales bivariées lorsque la moyenne et la variance sont connues?
Supposons que nous ayons un échantillon aléatoire d'une distribution normale bivariée qui a des zéros comme moyennes et des uns comme des variances, donc le seul paramètre inconnu est la covariance. Quel est le MLE de la covariance? Je sais que cela devrait être quelque chose comme mais comment savons-nous …


1
Comment intégrer une valeur aberrante innovante à l'observation 48 dans mon modèle ARIMA?
Je travaille sur un ensemble de données. Après avoir utilisé certaines techniques d'identification de modèle, je suis sorti avec un modèle ARIMA (0,2,1). J'ai utilisé la detectIOfonction dans le package TSAen R pour détecter une valeur aberrante innovante (IO) à la 48e observation de mon ensemble de données d'origine. Comment …
10 r  time-series  arima  outliers  hypergeometric  fishers-exact  r  time-series  intraclass-correlation  r  logistic  glmm  clogit  mixed-model  spss  repeated-measures  ancova  machine-learning  python  scikit-learn  distributions  data-transformation  stochastic-processes  web  standard-deviation  r  machine-learning  spatial  similarities  spatio-temporal  binomial  sparse  poisson-process  r  regression  nonparametric  r  regression  logistic  simulation  power-analysis  r  svm  random-forest  anova  repeated-measures  manova  regression  statistical-significance  cross-validation  group-differences  model-comparison  r  spatial  model-evaluation  parallel-computing  generalized-least-squares  r  stata  fitting  mixture  hypothesis-testing  categorical-data  hypothesis-testing  anova  statistical-significance  repeated-measures  likert  wilcoxon-mann-whitney  boxplot  statistical-significance  confidence-interval  forecasting  prediction-interval  regression  categorical-data  stata  least-squares  experiment-design  skewness  reliability  cronbachs-alpha  r  regression  splines  maximum-likelihood  modeling  likelihood-ratio  profile-likelihood  nested-models 

1
Pourquoi Anova () et drop1 () ont-ils fourni des réponses différentes pour les GLMM?
J'ai un GLMM du formulaire: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) Lorsque j'utilise drop1(model, test="Chi"), j'obtiens des résultats différents de ceux que j'utilise à Anova(model, type="III")partir du package de voiture ou summary(model). Ces deux derniers donnent les mêmes réponses. En utilisant un …
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 


1
Test d'hypothèse sur la matrice de covariance inverse
Supposons que j'observe iid et que je souhaite tester vech pour a matrice conformable et vecteur . Existe-t-il des travaux connus sur ce problème?xi∼N(μ,Σ)xi∼N(μ,Σ)x_i \sim \mathcal{N}\left(\mu,\Sigma\right)H0:A H0:A H_0: A\ (Σ−1)=a(Σ−1)=a\left(\Sigma^{-1}\right) = aAAAaaa La tentative évidente (pour moi) serait via un test de rapport de vraisemblance, mais il semble que maximiser …

2
Un bon livre avec un accent égal sur la théorie et les mathématiques
J'ai suivi suffisamment de cours de statistiques pendant mes années scolaires et à l'université. J'ai une bonne compréhension des concepts tels que CI, valeurs p, interprétation de la signification statistique, tests multiples, corrélation, régression linéaire simple (avec les moindres carrés) (modèles linéaires généraux) et tous les tests d'hypothèse. On m'avait …

2
La trinité des tests en toute vraisemblance: que faire face à des conclusions contradictoires?
Les tests de Wald, de rapport de vraisemblance et de multiplicateur de Lagrange dans le contexte de l'estimation du maximum de vraisemblance sont asymptotiquement équivalents. Cependant, pour les petits échantillons, ils ont tendance à diverger un peu, et dans certains cas, ils aboutissent à des conclusions différentes. Comment peuvent-ils être …

1
Quelle est la probabilité de ce processus?
Un patient est admis à l'hôpital. Leur durée de séjour dépend de deux choses: la gravité de leur blessure et le montant que leur assurance est prête à payer pour les garder à l'hôpital. Certains patients partiront prématurément si leur assurance décide de ne plus payer leur séjour. Supposons ce …


1
Biais des estimateurs du maximum de vraisemblance pour la régression logistique
J'aimerais comprendre quelques faits sur les estimateurs du maximum de vraisemblance (MLE) pour les régressions logistiques. Est-il vrai qu'en général, le MLE pour la régression logistique est biaisé? Je dirais "oui". Je sais, par exemple, que la dimension de l'échantillon est liée au biais asymptotique des MLE. Connaissez-vous des exemples …


1
Pourquoi le postérieur bayésien se concentre-t-il autour du minimiseur de divergence KL?
Considérons le bayésien . De manière asymptotique, son maximum se produit à l'estimation MLE , qui maximise simplement la probabilité .θ ∣ Xθ∣X\theta\mid Xθ^θ^\hat \thetaargminθFθ( X)argminθfθ(X)\operatorname{argmin}_\theta\, f_\theta(X) Tous ces concepts - prieurs bayésiens, maximisation de la probabilité - semblent super principes et pas du tout arbitraires. Il n'y a pas …


En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.