Questions marquées «probability»

Une probabilité fournit une description quantitative de l'occurrence probable d'un événement particulier.


1
Distribution de probabilité des fonctions des variables aléatoires?
J'ai un doute: considérons les variables aléatoires de valeur réelle et définies sur l'espace de probabilité .XXXZZZ(Ω,F,P)(Ω,F,P)(\Omega, \mathcal{F},\mathbb{P}) Soit , où est une fonction à valeur réelle. Puisque est une fonction de variables aléatoires, il s'agit d'une variable aléatoire.Y:=g(X,Z)Y:=g(X,Z)Y:= g(X,Z)g(⋅)g(⋅)g(\cdot)YYY Laissez soit une réalisation de .x:=X(ω)x:=X(ω)x:=X(\omega)XXX Est égal à ?P(Y|X=x)=P(g(X,Z)|X=x)P(Y|X=x)=P(g(X,Z)|X=x)\mathbb{P}(Y|X=x)=\mathbb{P}(g(X,Z)|X=x)P(g(x,Z))P(g(x,Z))\mathbb{P}(g(x,Z))


1
Exemple de CLT lorsque les moments n'existent pas
SoitXn=⎧⎩⎨1−12kw.p. (1−2−n)/2w.p. (1−2−n)/2w.p. 2−k for k>nXn={1w.p. (1−2−n)/2−1w.p. (1−2−n)/22kw.p. 2−k for k>nX_n = \begin{cases} 1 & \text{w.p. } (1 - 2^{-n})/2\\ -1 & \text{w.p. } (1 - 2^{-n})/2\\ 2^k & \text{w.p. } 2^{-k} \text{ for } k > n\\ \end{cases} Je dois montrer que même si cela a des moments infinis,n−−√(X¯n)→dN(0,1)n(X¯n)→dN(0,1)\sqrt{n}(\bar{X}_n) …

1
Attente de la somme des nombres K sans remplacement
Étant donné nombres, où la valeur de chaque nombre est différente, notée , et la probabilité de sélectionner chaque nombre est , respectivement.nnnv1,v2,...,vnv1,v2,...,vnv_1, v_2, ..., v_np1,p2,...,pnp1,p2,...,pnp_1, p_2, ..., p_n Maintenant, si je sélectionne nombres basés sur les probabilités données, où , quelle est l'attente de la somme de ces nombres? …

2
Attente du quotient des sommes des variables aléatoires IID (feuille de travail de l'Université de Cambridge)
Je me prépare pour un entretien qui nécessite une connaissance décente des probabilités de base (au moins pour passer l'entretien lui-même). Je travaille à travers la feuille ci-dessous de mes jours d'étudiant comme révision. Cela a surtout été assez simple, mais je suis complètement perplexe sur la question 12. http://www.trin.cam.ac.uk/dpk10/IA/exsheet2.pdf …

2
Trois problèmes philosophiques ouverts en statistique
J'ai récemment fini de lire The Lady Tasting Tea , un livre amusant sur l'histoire des statistiques. À la fin du livre, l'auteur, David Salsburg , propose trois problèmes philosophiques ouverts en statistique, dont les solutions selon lui auraient des implications plus importantes pour l'application de la théorie statistique à …


2
Comment un a priori uniforme conduit-il aux mêmes estimations du maximum de vraisemblance et du mode de postérieur?
J'étudie différentes méthodes d'estimation ponctuelle et je lis que lors de l'utilisation d'estimations MAP vs ML, lorsque nous utilisons un "a priori uniforme", les estimations sont identiques. Quelqu'un peut-il expliquer ce qu'est un a priori «uniforme» et donner des exemples (simples) de cas où les estimateurs MAP et ML seraient …




1
Comment comparer les événements observés aux événements attendus?
Supposons que j'ai un échantillon de fréquences de 4 événements possibles: Event1 - 5 E2 - 1 E3 - 0 E4 - 12 et j'ai les probabilités attendues que mes événements se produisent: p1 - 0.2 p2 - 0.1 p3 - 0.1 p4 - 0.6 Avec la somme des fréquences …
9 r  statistical-significance  chi-squared  multivariate-analysis  exponential  joint-distribution  statistical-significance  self-study  standard-deviation  probability  normal-distribution  spss  interpretation  assumptions  cox-model  reporting  cox-model  statistical-significance  reliability  method-comparison  classification  boosting  ensemble  adaboost  confidence-interval  cross-validation  prediction  prediction-interval  regression  machine-learning  svm  regularization  regression  sampling  survey  probit  matlab  feature-selection  information-theory  mutual-information  time-series  forecasting  simulation  classification  boosting  ensemble  adaboost  normal-distribution  multivariate-analysis  covariance  gini  clustering  text-mining  distance-functions  information-retrieval  similarities  regression  logistic  stata  group-differences  r  anova  confidence-interval  repeated-measures  r  logistic  lme4-nlme  inference  fiducial  kalman-filter  classification  discriminant-analysis  linear-algebra  computing  statistical-significance  time-series  panel-data  missing-data  uncertainty  probability  multivariate-analysis  r  classification  spss  k-means  discriminant-analysis  poisson-distribution  average  r  random-forest  importance  probability  conditional-probability  distributions  standard-deviation  time-series  machine-learning  online  forecasting  r  pca  dataset  data-visualization  bayes  distributions  mathematical-statistics  degrees-of-freedom 

1
«Puisque est presque gaussien, son PDF peut être écrit comme…»
Petite question: pourquoi est-ce vrai ?? Longue question: Très simplement, j'essaie de comprendre ce qui justifie cette première équation. L'auteur du livre que je lis, (contexte ici si vous le souhaitez, mais pas nécessaire), affirme ce qui suit: En raison de l'hypothèse de quasi-gaussianité, nous pouvons écrire: p0(ξ)=Aϕ(ξ)exp(an+1ξ+(an+2+12)ξ2+∑i=1naiGi(ξ))p0(ξ)=Aϕ(ξ)exp(an+1ξ+(an+2+12)ξ2+∑i=1naiGi(ξ)) p_0(\xi) = …


En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.