La probabilité qu'un événement A se produise, lorsqu'un autre événement B est connu pour se produire ou pour s'être produit. Il est couramment désigné par P (A | B).
La précision est définie comme: p = true positives / (true positives + false positives) Est - il exact que, true positiveset false positivesapproche 0, la précision approche 1? Même question pour rappel: r = true positives / (true positives + false negatives) J'implémente actuellement un test statistique où j'ai …
Le théorème de Bayes va P(model|data)=P(model)×P(data|model)P(data)P(model|data)=P(model)×P(data|model)P(data) P(\textrm{model}|\textrm{data}) = \frac{P(\textrm{model}) \times P(\textrm{data}|\textrm{model})}{P(\textrm{data})} Tout va bien. Mais, j'ai lu quelque part: Fondamentalement, P (données) n'est rien d'autre qu'une constante de normalisation, c'est-à-dire une constante qui fait que la densité postérieure s'intègre à une. Nous savons que 0≤P(model)≤10≤P(model)≤10 \leq P(\textrm{model}) \leq 1 et …
Soit un espace de probabilité, étant donné une variable aléatoire et une -algebra nous pouvons construire une nouvelle variable aléatoire , qui est l'espérance conditionnelle.( Ω , F , μ ) (Ω,F,μ)(\Omega,\mathscr{F},\mu)ξ : Ω → Rξ:Ω→R\xi:\Omega \to \mathbb{R} σ σ\sigmaG ⊆ FG⊆F\mathscr{G}\subseteq \mathscr{F} E [ ξ |G ]E[ξ|G]E[\xi|\mathscr{G}] Quelle est …
J'ai un problème avec la preuve de E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X) \in \arg \min_{g(X)} E\Big[\big(Y - g(X)\big)^2\Big] qui révèlent très probablement une incompréhension plus profonde des attentes et des attentes conditionnelles. La preuve que je connais va comme suit (une autre version de cette preuve peut être trouvée ici ) ===argming(X)E[(Y−g(x))2]argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(X)E[(Y−g(x))2]=argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]=argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]=argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]\begin{align*} &\arg \min_{g(X)} …
Pourriez-vous m'informer, comment puis-je calculer la probabilité conditionnée de plusieurs événements? par exemple: P (A | B, C, D) -? Je le sais: P (A | B) = P (A B) / P (B)∩∩\cap Mais, malheureusement, je ne trouve aucune formule si un événement A dépend de plusieurs variables. Merci …
Dans la formule de Bayes: P( x | a ) = P( a | x ) P( x )P( A )P(x|a)=P(a|x)P(x)P(a)P(x|a) = \frac{P(a|x) P(x)}{P(a)} la probabilité postérieure dépasser 1?P( x | a )P(x|a)P(x|a) Je pense que c'est possible si, par exemple, en supposant que , et , et . Mais …
Cette question de validation croisée portant sur la simulation d'un échantillon conditionnel à une somme fixe m'a rappelé un problème posé par George Casella . Étant donné un modèle paramétrique f(x|θ)f(x|θ)f(x|\theta) et un échantillon iid de ce modèle , le MLE de est donné par Pour une valeur donnée de …
Je me sens un peu mal à l'aise avec la façon dont j'ai mentalement traité le paradoxe de Borel et d'autres «paradoxes» associés traitant de la probabilité conditionnelle. Pour ceux qui lisent ceci et qui ne le connaissent pas, consultez ce lien . Ma réponse mentale jusqu'à présent a été …
Si j'ai deux variables aléatoires indépendantes normalement distribuées et avec des moyennes \ mu_X et \ mu_Y et des écarts-types \ sigma_X et \ sigma_Y et je découvre que X + Y = c , alors (en supposant que je n'ai pas fait d'erreur) la distribution conditionnelle de X et …
Je comprends P(A∩B)/P(B)=P(A|B)P(A∩B)/P(B)=P(A|B)P(A\cap B)/P(B) = P(A|B) . Le conditionnel est l'intersection de A et B divisée par toute l'aire de B. Mais pourquoi P(A∩B|C) / P( B | C) = P( A | B ∩ C)P(UNE∩B|C)/P(B|C)=P(UNE|B∩C)P(A\cap B|C)/P(B|C) = P(A|B \cap C) ? Pouvez-vous donner une certaine intuition? Cela ne devrait-il …
Dans les conférences vidéo de Harvard's Statistics 110: Probability course que l'on peut trouver sur iTunes et YouTube, j'ai rencontré ce problème. J'ai essayé de le résumer ici: Supposons que l'on nous donne une main aléatoire de deux cartes d'un paquet standard. Quelle est la probabilité que les deux cartes …
Question Si sont IID, alors calculez , où .X1,⋯,Xn∼N(μ,1)X1,⋯,Xn∼N(μ,1)X_1,\cdots,X_n \sim \mathcal{N}(\mu, 1)E(X1∣T)E(X1∣T)\mathbb{E}\left( X_1 \mid T \right)T=∑iXiT=∑iXiT = \sum_i X_i Tentative : veuillez vérifier si les informations ci-dessous sont correctes. Disons que nous prenons la somme de ces attentes conditionnelles telles que Cela signifie que chaque puisque sont IID.∑iE(Xi∣T)=E(∑iXi∣T)=T.∑iE(Xi∣T)=E(∑iXi∣T)=T.\begin{align} \sum_i \mathbb{E}\left( …
Considérez les déclarations suivantes par le Titanic: Hypothèse 1: seuls des hommes et des femmes étaient à bord Hypothèse 2: il y avait un grand nombre d'hommes et de femmes Énoncé 1: 90% de toutes les femmes ont survécu Énoncé 2: 90% de tous ceux qui ont survécu étaient des …
Je ne comprends pas comment cette équation a été dérivée. P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|I′)P(M2|I′)P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|I′)P(M2|I′)P(I|M_{1}\cap M_{2}) \leq \frac{P(I)}{P(I')}\cdot \frac{P(M_{1}|I)P(M_{2}|I)}{P(M_{1}|I')P(M_{2}|I')} Cette équation est tirée de l'étude "Trial by Probability" où le cas d'OJ Simpson a été donné comme exemple de problème. Le prévenu est jugé pour double meurtre et deux preuves sont présentées contre lui. …
Supposons que la variable aléatoire suit une distribution uniforme continue avec les paramètres 0 et 10 (c'est-à-dire U ∼ U ( 0 , 10 ) )UUUU∼U(0,10)U∼U(0,10)U \sim \rm{U}(0,10) Désignons maintenant A l'événement où = 5 et B l'événement où U est égal à 5 ou 6. Selon ma compréhension, les …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.