Questions marquées «bayesian»

L'inférence bayésienne est une méthode d'inférence statistique qui repose sur le traitement des paramètres du modèle comme des variables aléatoires et l'application du théorème de Bayes pour déduire des déclarations de probabilité subjectives sur les paramètres ou les hypothèses, conditionnelles à l'ensemble de données observé.

3
Test bayésien AB
J'exécute un test AB sur une page qui ne reçoit que 5 000 visites par mois. Il faudrait trop de temps pour atteindre les niveaux de trafic nécessaires pour mesurer une différence de + -1% entre le test et le contrôle. J'ai entendu dire que je peux utiliser les statistiques …

1
Utilisation de l'estimation de la densité du noyau dans Naive Bayes Classifier?
Cette question fait suite à ma précédente question ici et est également liée, dans l' intention, à cette question . Sur cette page wiki, les valeurs de densité de probabilité d'une distribution normale supposée pour l'ensemble d'apprentissage sont utilisées pour calculer des valeurs de probabilité bayésiennes postérieures plutôt que réelles. …
9 bayesian  kde 

1
Quelle est la bonne façon d'écrire le filet élastique?
Je suis confus quant à la bonne façon d'écrire le filet élastique. Après avoir lu certains documents de recherche, il semble y avoir trois formes 1)exp{−λ1|βk|−λ2β2k}exp⁡{−λ1|βk|−λ2βk2}\exp\{-\lambda_1|\beta_k|-\lambda_2\beta_k^2\} 2)exp{−(λ1|βk|+λ2β2k)σ2√}exp⁡{−(λ1|βk|+λ2βk2)σ2}\exp\{-\frac{(\lambda_1|\beta_k|+\lambda_2\beta_k^2)}{\sqrt{\sigma^2}}\} 3)exp{−(λ1|βk|+λ2β2k)2σ2}exp⁡{−(λ1|βk|+λ2βk2)2σ2}\exp\{-\frac{(\lambda_1|\beta_k|+\lambda_2\beta_k^2)}{2\sigma^2}\} Je ne comprends tout simplement pas la bonne façon d'ajouter . L'une des expressions ci-dessus est-elle correcte?σ2σ2\sigma^2

2
Les produits des VR échangeables sont-ils échangeables?
Suppose que X=(X1,...,Xn),:(Ω,A,P)→({0,1}n,2{0,1}n)X=(X1,...,Xn),:(Ω,A,P)→({0,1}n,2{0,1}n)X=(X_1, ..., X_n),: (\Omega, A,P)\to (\{0,1\}^n, 2^{{\{0,1\}}^n}) et Oui= (Oui1, . . . ,Ouin) : ( Ω , A , P) → ( { 0 , 1}n,2{ 0 , 1 }n)Oui=(Oui1,...,Ouin):(Ω,UNE,P)→({0,1}n,2{0,1}n)Y=(Y_1, ..., Y_n):(\Omega, A,P)\to (\{0,1\}^n, 2^{{\{0,1\}}^n})sont deux variables aléatoires qui ont des RV binaires comme composants (par conséquent …

1
Optimisation bayésienne pour le bruit non gaussien
Une fonction boîte noire F:Rn→ RF:Rn→Rf: \mathbb{R}^n \rightarrow \mathbb{R}, qui est évalué ponctuellement soumis au bruit gaussien, à savoir, F( x ) + N( μ ( x ) , σ( x)2)F(X)+N(μ(X),σ(X)2)f(x) + \mathcal{N}(\mu(x),\sigma(x)^2), peut être minimisé en utilisant l'optimisation bayésienne où un processus gaussien est utilisé comme modèle de fonction …

1
Pourquoi MAP converge-t-il vers MLE?
Dans "L'apprentissage automatique: une perspective probabiliste" de Kevin Murphy, le chapitre 3.2, l'auteur montre l'apprentissage conceptuel bayésien sur un exemple appelé "jeu de nombres": Après avoir observé NNN des échantillons de {1,...,100}{1,...,100}\{1,...,100\}, nous voulons choisir une hypothèse qui décrit le mieux la règle qui a généré les échantillons. Par exemple, …


2
Sélection d'entités sur un modèle linéaire généralisé hiérarchique bayésien
Je cherche à estimer un GLM hiérarchique mais avec une sélection de caractéristiques pour déterminer quelles covariables sont pertinentes au niveau de la population à inclure. Supposons que j'ai GGG groupes avec NNN observations et KKKcovariables possibles C'est-à-dire que j'ai une matrice de conception de covariables , résultats . Les …




2
Configuration d'un algorithme de simulation pour vérifier l'étalonnage des probabilités postérieures bayésiennes
Déterminer comment simuler quelque chose est souvent le meilleur moyen de comprendre les principes sous-jacents. Je ne sais pas exactement comment simuler ce qui suit. Supposer que Oui∼ N( μ ,σ2)Oui∼N(μ,σ2)Y \sim N(\mu, \sigma^{2}) et cela μμ\mu a une distribution antérieure qui est N( γ,τ2)N(γ,τ2)N(\gamma, \tau^{2}). Basé sur un échantillon …

2
Lors de l'approximation d'un postérieur à l'aide de MCMC, pourquoi ne sauvegardons-nous pas les probabilités postérieures mais utilisons-nous ensuite les fréquences des valeurs des paramètres?
J'évalue actuellement les paramètres d'un modèle défini par plusieurs équations différentielles ordinaires (ODE). J'essaie ceci avec une approche bayésienne en approximant la distribution postérieure des paramètres étant donné certaines données en utilisant la chaîne de Markov Monte Carlo (MCMC). Un échantillonneur MCMC génère une chaîne de valeurs de paramètres où …



En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.