Je vais procéder à une rétro-ingénierie à partir de mon expérience des cas de discrimination. Je peux certainement établir d'où viennent les valeurs de «un sur 741», etc. Cependant, tellement d'informations ont été perdues dans la traduction que le reste de ma reconstruction repose sur le fait d'avoir vu comment les gens font des statistiques dans les salles d'audience. Je ne peux que deviner certains détails.
Depuis que les lois anti-discrimination ont été adoptées dans les années 1960 (titre VI), les tribunaux américains ont appris à examiner les valeurs p et à les comparer à des seuils de et 0,01 . Ils ont également appris à examiner les effets normalisés, généralement appelés «écarts-types», et à les comparer à un seuil de «deux à trois écarts-types». Afin d'établir une preuve prima facie pour une action en discrimination, les plaignants tentent généralement un calcul statistique montrant un «impact disparate» qui dépasse ces seuils. Si un tel calcul ne peut pas être pris en charge, le cas ne peut généralement pas avancer.0.050.01
Les experts statistiques des plaignants tentent souvent d'exprimer leurs résultats en ces termes familiers. Certains des experts effectuent un test statistique dans lequel l'hypothèse nulle n'exprime «aucun impact négatif», en supposant que les décisions en matière d'emploi étaient purement aléatoires et non régies par d'autres caractéristiques des employés. (Que ce soit une alternative unilatérale ou bilatérale peut dépendre de l'expert et des circonstances.) Ils convertissent ensuite la valeur de p de ce test en un certain nombre d '"écarts-types" en le référant à la distribution normale standard- - même lorsque la norme normale n'est pas pertinente pour le test d'origine. De cette manière détournée, ils espèrent communiquer clairement leurs conclusions au juge.
Le test préféré pour les données qui peuvent être résumées dans des tableaux de contingence est le test exact de Fisher. L'occurrence de "Exact" dans son nom est particulièrement agréable aux plaignants, car elle implique une détermination statistique qui a été faite sans erreur (quelle qu'elle soit!).
Voici donc ma (reconstruction spéculative) des calculs du ministère du Travail.
χ2
Ils ont converti sa valeur de p en un score Z normal ("nombre d'écarts types").
Ils ont arrondi le score Z à l'entier le plus proche: "dépasse trois écarts-types", "dépasse cinq écarts-types" et "dépasse six écarts-types". (Parce que certains de ces scores Z ont arrondi à des écarts-types plus élevés , je ne peux pas justifier les «dépassements»; tout ce que je peux faire, c'est le citer.)
Dans la plainte, ces scores Z intégraux ont été reconvertis en valeurs p! Encore une fois, la distribution normale standard a été utilisée.
Ces valeurs de p sont décrites (sans doute de manière trompeuse) comme «la probabilité que ce résultat se produise selon le hasard».
1/12801/5650001/5800000073011601307301160130−3.16−4.64−5.521/7411/35000001/1000000000
Voici un R
code utilisé pour effectuer ces calculs.
f <- function(total, percent.asian, hired.asian, hired.non.asian) {
asian <- round(percent.asian/100 * total)
non.asian <- total-asian
x <- matrix(c(asian-hired.asian, non.asian-hired.non.asian, hired.asian, hired.non.asian),
nrow = 2,
dimnames=list(Race=c("Asian", "non-Asian"),
Status=c("Not hired", "Hired")))
s <- fisher.test(x)
s$p.value
}
1/pnorm(round(qnorm(f(730, 77, 1, 6))))
1/pnorm(round(qnorm(f(1160, 85, 11, 14))))
1/pnorm(round(qnorm(f(130, 73, 4, 17))))