Questions marquées «bayesian»

L'inférence bayésienne est une méthode d'inférence statistique qui repose sur le traitement des paramètres du modèle comme des variables aléatoires et l'application du théorème de Bayes pour déduire des déclarations de probabilité subjectives sur les paramètres ou les hypothèses, conditionnelles à l'ensemble de données observé.

2
Évaluer la distribution prédictive postérieure dans la régression linéaire bayésienne
Je ne sais pas comment évaluer la distribution prédictive postérieure de la régression linéaire bayésienne, après le cas de base décrit ici à la page 3, et copié ci-dessous. p(y~∣y)=∫p(y~∣β,σ2)p(β,σ2∣y)p(y~∣y)=∫p(y~∣β,σ2)p(β,σ2∣y) p(\tilde y \mid y) = \int p(\tilde y \mid \beta, \sigma^2) p(\beta, \sigma^2 \mid y) Le cas de base est …

1
La formule du test bayésien A / B n'a aucun sens
J'utilise la formule de test ab bayésien afin de calculer les résultats du test AB en utilisant la méthodologie bayésienne. Pr ( pB> pUNE) = ∑i = 0αB- 1B ( αUNE+ i , βB+ βUNE)( βB+ i ) B ( 1 + i , βB) B ( αUNE, βUNE)Pr(pB>pUNE)=∑je=0αB-1B(αUNE+je,βB+βUNE)(βB+je)B(1+je,βB)B(αUNE,βUNE) \Pr(p_B …
10 r  bayesian  ab-test 


3
Estimation du paramètre d'une distribution uniforme: a priori incorrect?
Nous avons N échantillons, , d'une distribution uniforme où est inconnue. Estimer partir des données.XiXiX_i[0,θ][0,θ][0,\theta]θθ\thetaθθ\theta Donc, la règle de Bayes ... f(θ|Xi)=f(Xi|θ)f(θ)f(Xi)f(θ|Xi)=f(Xi|θ)f(θ)f(Xi)f(\theta | {X_i}) = \frac{f({X_i}|\theta)f(\theta)}{f({X_i})} et la probabilité est: f(Xi|θ)=∏Ni=11θf(Xi|θ)=∏i=1N1θf({X_i}|\theta) = \prod_{i=1}^N \frac{1}{\theta} (edit: quand pour tout , et 0 sinon - merci whuber)0≤Xi≤θ0≤Xi≤θ0 \le X_i \le \thetaiii mais …

3
Exercice 2.2 des éléments de l'apprentissage statistique
Le manuel génère d'abord des données à 2 classes via: qui donne: puis il demande: J'essaie de résoudre cela en modélisant d'abord cela avec ce modèle graphique: où est l'étiquette, est l'indice de la moyenne sélectionnée , et est le point de données. Cela donneraccch(1≤h≤10)h(1≤h≤10)h\,(1\le h \le 10)mchmhcm_h^cxxx Pr(x∣mch)=Pr(mch∣h,c=blue)=Pr(mch∣h,c=orange)=Pr(h)=Pr(c)=N(mch,I/5)N((1,0)T,I)N((0,1)T,I)11012Pr(x∣mhc)=N(mhc,I/5)Pr(mhc∣h,c=blue)=N((1,0)T,I)Pr(mhc∣h,c=orange)=N((0,1)T,I)Pr(h)=110Pr(c)=12 \begin{align*} …


4
Modèle d'historique d'événement à temps discret (survie) dans R
J'essaie d'adapter un modèle à temps discret dans R, mais je ne sais pas comment le faire. J'ai lu que vous pouvez organiser la variable dépendante dans différentes lignes, une pour chaque observation de temps, et utiliser la glmfonction avec un lien logit ou cloglog. En ce sens, j'ai trois …
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 




1
R régression linéaire variable catégorielle valeur «cachée»
Ceci est juste un exemple que j'ai rencontré plusieurs fois, donc je n'ai pas d'échantillons de données. Exécution d'un modèle de régression linéaire dans R: a.lm = lm(Y ~ x1 + x2) x1est une variable continue. x2est catégorique et a trois valeurs, par exemple "Low", "Medium" et "High". Cependant, la …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

4
Étant donné une chaîne 10MC MCMC, comment puis-je déterminer son ou ses modes postérieurs dans R?
Question: Avec une chaîne MCMC à 10 dimensions, disons que je suis prêt à vous remettre une matrice des tirages: 100 000 itérations (lignes) par 10 paramètres (colonnes), comment identifier au mieux les modes postérieurs? Je suis particulièrement préoccupé par plusieurs modes. Contexte:Je me considère comme un statisticien averti en …

2
Pourquoi ne pas utiliser le théorème de Bayes sous la forme ?
Il y a beaucoup de questions (comme celle-ci ) sur une ambiguïté avec la formule bayésienne en cas continu. p(θ|x)=p(x|θ)⋅p(θ)p(x)p(θ|x)=p(x|θ)⋅p(θ)p(x)p(\theta | x) = \frac{p(x | \theta) \cdot p(\theta)}{p(x)} Souvent, la confusion vient du fait que la définition de la distribution conditionnelle est expliquée comme étant fonction de la donnée fixe …

1
Qu'est-ce que la programmation probabiliste?
Au cours de la dernière année, j'ai beaucoup entendu parler des cadres de programmation probabiliste (PP) comme PyMC3 et Stan , et de la qualité de PP. Et aujourd'hui, quelqu'un a partagé ce lien avec moi: Pyro: un langage de programmation probabiliste profond Cependant, je ne suit pas vraiment ce …

1
Quand la normalité asymptotique de la postérieure bayésienne (Bernstein-von Mises) échoue-t-elle?
Considérons la fonction de densité postérieure donnée (comme d'habitude) par avec la densité antérieure et la distribution du observations , conditionnelles à la valeur du paramètre .π(θ)∏i=1nf(xi;θ),π(θ)∏i=1nf(xi;θ), \pi(\theta) \prod_{i=1}^n f(x_i;\theta),ππ\pif(⋅;θ)f(⋅;θ)f(\cdot;\theta)nnnx1,…,xnx1,…,xnx_1, \dots, x_nθθ\theta Dans certaines conditions, la distribution postérieure est asymptotiquement normale (un résultat connu sous le nom de théorème de …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.