Questions marquées «probability»

Une probabilité fournit une description quantitative de l'occurrence probable d'un événement particulier.

4
À quel point un groupe d'accidents d'avion est-il étrange?
Question originale (25/07/14): Cette citation des médias est-elle logique, ou existe-t-il une meilleure façon statistique de visualiser la série d'accidents d'avion récents? Cependant, Barnett attire également l'attention sur la théorie de la distribution de Poisson, ce qui implique que les intervalles courts entre les accidents sont en fait plus probables …

1
Quelle est l'intuition derrière les échantillons échangeables sous l'hypothèse nulle?
Les tests de permutation (également appelés test de randomisation, test de re-randomisation ou test exact) sont très utiles et s'avèrent utiles lorsque l'hypothèse de distribution normale requise par exemple t-testn'est pas remplie et lorsque la transformation des valeurs par classement des un test non paramétrique comme Mann-Whitney-U-testcela entraînerait la perte …
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 


2
Combiner des classificateurs en lançant une pièce
J'étudie un cours d'apprentissage automatique et les diapositives de la conférence contiennent des informations que je trouve en contradiction avec le livre recommandé. Le problème est le suivant: il existe trois classificateurs: classificateur A offrant de meilleures performances dans la plage inférieure des seuils, classificateur B offrant de meilleures performances …


3
Comment puis-je estimer la probabilité qu'un membre aléatoire d'une population soit «meilleur» qu'un membre aléatoire d'une population différente?
Supposons que je possède des échantillons de deux populations distinctes. Si je mesure le temps qu'il faut à chaque membre pour accomplir une tâche, je peux facilement estimer la moyenne et la variance de chaque population. Si je fais maintenant l'hypothèse d'un appariement aléatoire avec un individu de chaque population, …

5
Différence entre les termes «distribution conjointe» et «distribution multivariée»?
J'écris sur l'utilisation d'une «distribution de probabilité conjointe» pour un public qui serait plus susceptible de comprendre la «distribution multivariée», donc j'envisage d'utiliser la dernière. Cependant, je ne veux pas perdre de sens en faisant cela. Wikipédia semble indiquer qu'il s'agit de synonymes. Sont-ils? Sinon, pourquoi pas?

4
Valeur attendue vs valeur la plus probable (mode)
La valeur attendue d'une distribution f(x)f(x)f(x) est la moyenne, c'est-à-dire la valeur moyenne pondérée E[x]=∫+∞−∞xf(x)dxE[x]=∫−∞+∞xf(x)dxE[x]=\int_{-\infty}^{+\infty} x \, \, f(x) dx La valeur la plus probable est le mode, c'est-à-dire la valeur la plus probable. Cependant, nous attendons-nous à voir nombreuses fois? Citant d' ici :E[x]E[x]E[x] Si les résultats ne sont …






2
Constante de normalisation dans le théorème de Bayes
Pr(data)Pr(data)\Pr(\textrm{data}) Pr(parameters∣data)=Pr(data∣parameters)Pr(parameters)Pr(data)Pr(parameters∣data)=Pr(data∣parameters)Pr(parameters)Pr(data)\Pr(\text{parameters} \mid \text{data}) = \frac{\Pr(\textrm{data} \mid \textrm{parameters}) \Pr(\text{parameters})}{\Pr(\text{data})} est appelé une constante de normalisation . C'est quoi exactement? Quel est son objectif? Pourquoi ressemble-t-il à ? Pourquoi cela ne dépend-il pas des paramètres?Pr(data)Pr(data)\Pr(data)

5
Y a-t-il plus à la probabilité que le bayésianisme?
En tant qu'étudiant en physique, j'ai fait l'expérience de la conférence «Pourquoi je suis un bayésien» peut-être une demi-douzaine de fois. C'est toujours la même chose - le présentateur explique avec suffisance comment l'interprétation bayésienne est supérieure à l'interprétation fréquentiste prétendument employée par les masses. Ils mentionnent la règle de …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.