Au fur et à mesure que l'on s'intéresse aux statistiques, la dichotomie "Frequentist" vs "Bayesian" se banalise (et qui n'a pas lu Le signal et le bruit de Nate Silver , de toute façon?). Dans les causeries et les cours d'initiation, le point de vue est extrêmement fréquentiste ( MLE …
Fermé. Cette question est hors sujet . Il n'accepte pas actuellement de réponses. Voulez-vous améliorer cette question? Mettez à jour la question afin qu'elle soit sur le sujet pour la validation croisée. Fermé il y a 2 ans . J'utilise caret pour exécuter une forêt aléatoire validée de façon croisée …
Le théorème de Bayes va P(model|data)=P(model)×P(data|model)P(data)P(model|data)=P(model)×P(data|model)P(data) P(\textrm{model}|\textrm{data}) = \frac{P(\textrm{model}) \times P(\textrm{data}|\textrm{model})}{P(\textrm{data})} Tout va bien. Mais, j'ai lu quelque part: Fondamentalement, P (données) n'est rien d'autre qu'une constante de normalisation, c'est-à-dire une constante qui fait que la densité postérieure s'intègre à une. Nous savons que 0≤P(model)≤10≤P(model)≤10 \leq P(\textrm{model}) \leq 1 et …
L'article The Odds, Continually Updated mentionne l'histoire d'un pêcheur de Long Island qui doit littéralement sa vie à Bayesian Statistics. Voici la version courte: Il y a deux pêcheurs sur un bateau au milieu de la nuit. Pendant que l'un est endormi, l'autre tombe dans l'océan. Le bateau continue de …
Je pense qu'un bon moyen de se souvenir de la formule est de penser à la formule comme ceci: La probabilité qu'un événement A ait un résultat particulier étant donné le résultat d'un événement indépendant B = la probabilité que les deux résultats se produisent simultanément / quoi que nous …
Je ne comprends pas comment cette équation a été dérivée. P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|I′)P(M2|I′)P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|I′)P(M2|I′)P(I|M_{1}\cap M_{2}) \leq \frac{P(I)}{P(I')}\cdot \frac{P(M_{1}|I)P(M_{2}|I)}{P(M_{1}|I')P(M_{2}|I')} Cette équation est tirée de l'étude "Trial by Probability" où le cas d'OJ Simpson a été donné comme exemple de problème. Le prévenu est jugé pour double meurtre et deux preuves sont présentées contre lui. …
Quelle est la relation entre l'analyse discriminante linéaire et la règle de Bayes? Je comprends que la LDA est utilisée dans la classification en essayant de minimiser le rapport entre la variance intra-groupe et entre la variance entre groupes, mais je ne sais pas comment la règle de Bayes l'utilise.
C'est plus une question d'histoire de la science, mais j'espère que c'est sur le sujet ici. J'ai lu que Thomas Bayes n'a réussi à découvrir le théorème de Bayes que pour le cas spécial d'un uniforme antérieur, et même alors, il a lutté avec, apparemment. Compte tenu de la banalité …
Il est considéré comme le cas idéal dans lequel la structure de probabilité sous-jacente aux catégories est parfaitement connue. Pourquoi est-ce qu'avec le classificateur Bayes, nous obtenons les meilleures performances possibles? Quelle est la preuve / explication formelle de cela? Comme nous utilisons toujours le classificateur Bayes comme référence pour …
J'ai lu Wagenmakers (2007) Une solution pratique au problème omniprésent des valeurs de p . Je suis intrigué par la conversion des valeurs BIC en facteurs et probabilités Bayes. Cependant, jusqu'à présent, je n'ai pas une bonne compréhension de ce qu'est exactement une information d'unité avant . Je serais reconnaissant …
J'essaie de comprendre le résultat du théorème de Bayes appliqué à l'exemple de la mammographie classique, la torsion de la mammographie étant parfaite. C'est, Incidence du cancer:.01.01.01 Probabilité d'une mammographie positive, étant donné que le patient a un cancer:111 Probabilité d'une mammographie positive, étant donné que le patient n'a pas …
Je travaille avec la logique floue (FL) depuis des années et je sais qu'il existe des différences entre FL et les probabilités concernant en particulier la manière dont FL gère l'incertitude. Cependant, je voudrais demander quelles sont les autres différences entre FL et la probabilité? En d'autres termes, si je …
Un facteur bayésien est défini dans les tests bayésiens d'hypothèse et de sélection du modèle bayésien par le rapport de deux probabilités marginales: pour un échantillon iid et les densités d'échantillonnage respectives et , avec les a priori correspondants et , le facteur Bayes pour comparer les deux modèles est …
La perte L2, ainsi que la perte L0 et L1, sont trois fonctions de perte "par défaut" très courantes utilisées pour résumer une perte postérieure minimale par la perte attendue postérieure. Une des raisons à cela est peut-être qu'elles sont relativement faciles à calculer (au moins pour les distributions 1d), …
D'un point de vue mathématique, le théorème de Bayes est parfaitement logique pour moi (c'est-à-dire dériver et prouver), mais ce que je ne sais pas, c'est s'il existe ou non un bel argument géométrique ou graphique qui peut être montré pour expliquer le théorème de Bayes. J'ai essayé Google pour …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.