Questions marquées «hypothesis-testing»

Les tests d'hypothèse évaluent si les données sont incompatibles avec une hypothèse donnée plutôt que d'être un effet de fluctuations aléatoires.



7
Le chi-carré est-il toujours un test unilatéral?
Un article publié ( pdf ) contient ces 2 phrases: De plus, les fausses déclarations peuvent être causées par l'application de règles incorrectes ou par une connaissance insuffisante du test statistique. Par exemple, l'df totale dans un ANOVA peut être considéré comme le df d'erreur dans le rapport d'un test, …


2
Pourquoi les tests d'hypothèses fréquentistes deviennent-ils biaisés en faveur du rejet de l'hypothèse nulle avec des échantillons suffisamment grands?
Je venais de lire cet article sur le facteur Bayes pour un problème totalement sans rapport lorsque je suis tombé sur ce passage Les tests d’hypothèses avec des facteurs Bayes sont plus robustes que les tests d’hypothèses fréquentistes, dans la mesure où la forme bayésienne évite les biais de sélection …


3
Interprétation du prédicteur et / ou de la réponse transformé par log
Je me demande si cela fait une différence d'interprétation si seules les variables dépendantes, indépendantes et dépendantes, ou uniquement les variables indépendantes sont transformées par un journal. Considérons le cas de log(DV) = Intercept + B1*IV + Error Je peux interpréter l'IV comme l'augmentation en pourcentage, mais comment cela change-t-il …
46 regression  data-transformation  interpretation  regression-coefficients  logarithm  r  dataset  stata  hypothesis-testing  contingency-tables  hypothesis-testing  statistical-significance  standard-deviation  unbiased-estimator  t-distribution  r  functional-data-analysis  maximum-likelihood  bootstrap  regression  change-point  regression  sas  hypothesis-testing  bayesian  randomness  predictive-models  nonparametric  terminology  parametric  correlation  effect-size  loess  mean  pdf  quantile-function  bioinformatics  regression  terminology  r-squared  pdf  maximum  multivariate-analysis  references  data-visualization  r  pca  r  mixed-model  lme4-nlme  distributions  probability  bayesian  prior  anova  chi-squared  binomial  generalized-linear-model  anova  repeated-measures  t-test  post-hoc  clustering  variance  probability  hypothesis-testing  references  binomial  profile-likelihood  self-study  excel  data-transformation  skewness  distributions  statistical-significance  econometrics  spatial  r  regression  anova  spss  linear-model 


6
Motivation pour la distance de Kolmogorov entre les distributions
Il existe de nombreuses façons de mesurer la similarité des deux distributions de probabilité. Parmi les méthodes qui sont populaires (dans différents cercles) figurent: la distance de Kolmogorov: la distance supérieure entre les fonctions de distribution; la distance de Kantorovich-Rubinstein: la différence maximale entre les attentes par rapport aux deux …

4
Pourquoi les statisticiens disent-ils qu'un résultat non significatif signifie «vous ne pouvez pas rejeter le zéro» plutôt que d'accepter l'hypothèse nulle?
Les tests statistiques traditionnels, tels que le test t à deux échantillons, visent à éliminer l'hypothèse selon laquelle il n'y a pas de différence entre une fonction de deux échantillons indépendants. Ensuite, nous choisissons un niveau de confiance et disons que si la différence de moyennes dépasse 95%, nous pouvons …






En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.