Questions marquées «uninformative-prior»





3
Estimation du paramètre d'une distribution uniforme: a priori incorrect?
Nous avons N échantillons, , d'une distribution uniforme où est inconnue. Estimer partir des données.XiXiX_i[0,θ][0,θ][0,\theta]θθ\thetaθθ\theta Donc, la règle de Bayes ... f(θ|Xi)=f(Xi|θ)f(θ)f(Xi)f(θ|Xi)=f(Xi|θ)f(θ)f(Xi)f(\theta | {X_i}) = \frac{f({X_i}|\theta)f(\theta)}{f({X_i})} et la probabilité est: f(Xi|θ)=∏Ni=11θf(Xi|θ)=∏i=1N1θf({X_i}|\theta) = \prod_{i=1}^N \frac{1}{\theta} (edit: quand pour tout , et 0 sinon - merci whuber)0≤Xi≤θ0≤Xi≤θ0 \le X_i \le \thetaiii mais …

4
Modèle d'historique d'événement à temps discret (survie) dans R
J'essaie d'adapter un modèle à temps discret dans R, mais je ne sais pas comment le faire. J'ai lu que vous pouvez organiser la variable dépendante dans différentes lignes, une pour chaque observation de temps, et utiliser la glmfonction avec un lien logit ou cloglog. En ce sens, j'ai trois …
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 


3
Comment effectuer une SVD pour imputer des valeurs manquantes, un exemple concret
J'ai lu les excellents commentaires sur la façon de traiter les valeurs manquantes avant d'appliquer SVD, mais j'aimerais savoir comment cela fonctionne avec un exemple simple: Movie1 Movie2 Movie3 User1 5 4 User2 2 5 5 User3 3 4 User4 1 5 User5 5 1 5 Étant donné la matrice …
8 r  missing-data  data-imputation  svd  sampling  matlab  mcmc  importance-sampling  predictive-models  prediction  algorithms  graphical-model  graph-theory  r  regression  regression-coefficients  r-squared  r  regression  modeling  confounding  residuals  fitting  glmm  zero-inflation  overdispersion  optimization  curve-fitting  regression  time-series  order-statistics  bayesian  prior  uninformative-prior  probability  discrete-data  kolmogorov-smirnov  r  data-visualization  histogram  dimensionality-reduction  classification  clustering  accuracy  semi-supervised  labeling  state-space-models  t-test  biostatistics  paired-comparisons  paired-data  bioinformatics  regression  logistic  multiple-regression  mixed-model  random-effects-model  neural-networks  error-propagation  numerical-integration  time-series  missing-data  data-imputation  probability  self-study  combinatorics  survival  cox-model  statistical-significance  wilcoxon-mann-whitney  hypothesis-testing  distributions  normal-distribution  variance  t-distribution  probability  simulation  random-walk  diffusion  hypothesis-testing  z-test  hypothesis-testing  data-transformation  lognormal  r  regression  agreement-statistics  classification  svm  mixed-model  non-independent  observational-study  goodness-of-fit  residuals  confirmatory-factor  neural-networks  deep-learning 

2
Quelle est la différence mathématique entre l'utilisation d'une approche non informative a priori et d'une approche fréquentiste?
Les priors non informatifs sont préférés dans les cas où les préjugés ne sont pas acceptables (c.-à-d. Salles d'audience, etc.) Cependant, il me semble qu'il serait tout simplement judicieux d'utiliser une approche fréquentiste à la place. Pourquoi l'approche bayésienne a-t-elle même un prior non informatif? Merci!

1
Dérivation de la densité postérieure pour une vraisemblance log-normale et a priori de Jeffreys
La fonction de vraisemblance d'une distribution lognormale est: F( x ; μ , σ) ∝∏nje11σXjeexp( -( lnXje- μ)22σ2)F(X;μ,σ)∝∏je1n1σXjeexp⁡(-(ln⁡Xje-μ)22σ2)f(x; \mu, \sigma) \propto \prod_{i_1}^n \frac{1}{\sigma x_i} \exp \left ( - \frac{(\ln{x_i} - \mu)^2}{2 \sigma^2} \right ) et le Prior de Jeffreys est: p ( μ , σ) ∝1σ2p(μ,σ)∝1σ2p(\mu,\sigma) \propto \frac{1}{\sigma^2} donc la …

1
Choisir des priors non informatifs
Je travaille sur un modèle reposant sur une vilaine fonction paramétrée faisant office de fonction de calibration sur une partie du modèle. En utilisant un paramètre bayésien, j'ai besoin d'obtenir des priors non informatifs pour les paramètres décrivant ma fonction. Je sais que dans l'idéal, je devrais dériver la référence …
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.