Questions marquées «conditional-probability»

La probabilité qu'un événement A se produise, lorsqu'un autre événement B est connu pour se produire ou pour s'être produit. Il est couramment désigné par P (A | B).

4
Quelles sont les valeurs correctes pour la précision et le rappel dans les cas de bord?
La précision est définie comme: p = true positives / (true positives + false positives) Est - il exact que, true positiveset false positivesapproche 0, la précision approche 1? Même question pour rappel: r = true positives / (true positives + false negatives) J'implémente actuellement un test statistique où j'ai …
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 

3
Pourquoi le facteur de normalisation est requis dans le théorème de Bayes?
Le théorème de Bayes va P(model|data)=P(model)×P(data|model)P(data)P(model|data)=P(model)×P(data|model)P(data) P(\textrm{model}|\textrm{data}) = \frac{P(\textrm{model}) \times P(\textrm{data}|\textrm{model})}{P(\textrm{data})} Tout va bien. Mais, j'ai lu quelque part: Fondamentalement, P (données) n'est rien d'autre qu'une constante de normalisation, c'est-à-dire une constante qui fait que la densité postérieure s'intègre à une. Nous savons que 0≤P(model)≤10≤P(model)≤10 \leq P(\textrm{model}) \leq 1 et …

3
Intuition pour l'attente conditionnelle de -algebra
Soit un espace de probabilité, étant donné une variable aléatoire et une -algebra nous pouvons construire une nouvelle variable aléatoire , qui est l'espérance conditionnelle.( Ω , F , μ ) (Ω,F,μ)(\Omega,\mathscr{F},\mu)ξ : Ω → Rξ:Ω→R\xi:\Omega \to \mathbb{R} σ σ\sigmaG ⊆ FG⊆F\mathscr{G}\subseteq \mathscr{F} E [ ξ |G ]E[ξ|G]E[\xi|\mathscr{G}] Quelle est …

4
Problème avec la preuve de l'attente conditionnelle comme meilleur prédicteur
J'ai un problème avec la preuve de E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X)∈arg⁡ming(X)E[(Y−g(X))2]E(Y|X) \in \arg \min_{g(X)} E\Big[\big(Y - g(X)\big)^2\Big] qui révèlent très probablement une incompréhension plus profonde des attentes et des attentes conditionnelles. La preuve que je connais va comme suit (une autre version de cette preuve peut être trouvée ici ) ===argming(X)E[(Y−g(x))2]argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]arg⁡ming(X)E[(Y−g(x))2]=arg⁡ming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]=arg⁡ming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]=arg⁡ming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]\begin{align*} &\arg \min_{g(X)} …






4
Pourquoi P (A, B | C) / P (B | C) = P (A | B, C)?
Je comprends P(A∩B)/P(B)=P(A|B)P(A∩B)/P(B)=P(A|B)P(A\cap B)/P(B) = P(A|B) . Le conditionnel est l'intersection de A et B divisée par toute l'aire de B. Mais pourquoi P(A∩B|C) / P( B | C) = P( A | B ∩ C)P(UNE∩B|C)/P(B|C)=P(UNE|B∩C)P(A\cap B|C)/P(B|C) = P(A|B \cap C) ? Pouvez-vous donner une certaine intuition? Cela ne devrait-il …


3
Si
Question Si sont IID, alors calculez , où .X1,⋯,Xn∼N(μ,1)X1,⋯,Xn∼N(μ,1)X_1,\cdots,X_n \sim \mathcal{N}(\mu, 1)E(X1∣T)E(X1∣T)\mathbb{E}\left( X_1 \mid T \right)T=∑iXiT=∑iXiT = \sum_i X_i Tentative : veuillez vérifier si les informations ci-dessous sont correctes. Disons que nous prenons la somme de ces attentes conditionnelles telles que Cela signifie que chaque puisque sont IID.∑iE(Xi∣T)=E(∑iXi∣T)=T.∑iE(Xi∣T)=E(∑iXi∣T)=T.\begin{align} \sum_i \mathbb{E}\left( …

6
La statistique la plus importante: «90% de toutes les femmes ont survécu» ou «90% de toutes celles qui ont survécu étaient des femmes»?
Considérez les déclarations suivantes par le Titanic: Hypothèse 1: seuls des hommes et des femmes étaient à bord Hypothèse 2: il y avait un grand nombre d'hommes et de femmes Énoncé 1: 90% de toutes les femmes ont survécu Énoncé 2: 90% de tous ceux qui ont survécu étaient des …

1
Théorème de Bayes avec plusieurs conditions
Je ne comprends pas comment cette équation a été dérivée. P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|I′)P(M2|I′)P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|I′)P(M2|I′)P(I|M_{1}\cap M_{2}) \leq \frac{P(I)}{P(I')}\cdot \frac{P(M_{1}|I)P(M_{2}|I)}{P(M_{1}|I')P(M_{2}|I')} Cette équation est tirée de l'étude "Trial by Probability" où le cas d'OJ Simpson a été donné comme exemple de problème. Le prévenu est jugé pour double meurtre et deux preuves sont présentées contre lui. …


En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.