Pourquoi les démographes donnent-ils des taux pour 100 000 habitants?


10

Il semble universel que les statistiques démographiques soient données en termes de 100 000 habitants par an. Par exemple, les taux de suicide, les taux d'homicides, l'année de vie ajustée sur l'incapacité, la liste continue. Pourquoi?

Si nous parlions de chimie, les parties par million (ppm) sont courantes. Pourquoi l'acte de compter les gens est-il considéré fondamentalement différemment? Le nombre de 100 000 n'a aucune base dans le système SI, et pour autant que je sache, il n'a aucune base empirique du tout, sauf une faible relation avec un pourcentage. Un décompte pour 100 000 pourrait être interprété comme un mili-pour cent, m%. J'ai pensé que ça pourrait faire grogner.

Est-ce un artefact historique? Ou y a-t-il un argument pour défendre l'unité?


4
Pour les taux d'homicide, 100 000 est essentiellement le plus petit nombre nécessaire pour ne pas déclarer le taux en décimales.
Andy W

@Andy Eh bien, je suis d'accord avec cela et j'ai pensé la même chose moi-même. Mais cela laisse beaucoup d'autres avec des taux de 1 000, car quelle que soit la façon dont vous les découpez, la gamme d'informations démographiques présentées dans le format présente quelques différences de grandeur. L'autre argument, que 100 000 est une ville de taille moyenne semble être une raison très distincte.
AlanSE

2
Je n'ai jamais entendu le scénario de la ville de taille moyenne comme un raisonnement pour les taux de criminalité. Ici aux États-Unis, le DUC rapporte les taux de criminalité pour les juridictions de police, les comtés, les États, les grandes régions, les zones rurales / urbaines et diverses ventilations par taille de ville ou zones statistiques métropolitaines. La ville dans laquelle j'ai grandi avait une population d'environ 2 000 habitants, suis-je censé interpréter le taux de criminalité pour 100 000 habitants dans ma ville natale comme s'il s'agissait d'une ville de 100 000 habitants?
Andy W

Réponses:


11

Une petite recherche montre d'abord que les démographes (et d'autres, comme les épidémiologistes, qui signalent les taux d'événements dans les populations humaines) n'utilisent pas "universellement" 100 000 comme dénominateur. En effet, la recherche "démographie 100000" sur Google ou les recherches apparentées semblent produire autant de documents utilisant 1000 pour le dénominateur que 100 000. Un exemple est le Glossaire des termes démographiques du Population Reference Bureau , qui utilise systématiquement 1000.

L'examen des écrits des premiers épidémiologistes et démographes montre que les premiers (tels que John Graunt et William Petty, contributeurs aux premiers Bills of Mortality de Londres , 1662) n'ont même pas normalisé leurs statistiques: ils ont déclaré des chiffres bruts dans des unités administratives particulières (comme la ville de Londres) pendant des périodes données (comme un an ou sept ans).

L'épidémiologiste séminale John Snow (1853) a produit des tableaux normalisés à 100 000 mais a discuté des taux pour 10 000. Cela donne à penser que le dénominateur dans les tableaux a été choisi en fonction du nombre de chiffres significatifs disponibles et ajusté pour intégrer toutes les entrées.

De telles conventions étaient courantes dans les tableaux mathématiques remontant au moins aussi loin que le livre des logarithmes de John Napier (vers 1600), qui exprimait ses valeurs pour 10 000 000 pour atteindre une précision à sept chiffres pour les valeurs de la plage[0,1]. (La notation décimale était apparemment si récente qu'il se sentait obligé d'expliquer sa notation dans le livre!) On pourrait donc s'attendre à ce que les dénominateurs soient généralement choisis pour refléter la précision avec laquelle les données sont rapportées et pour éviter les décimales.

Un exemple moderne d'utilisation cohérente de la mise à l'échelle par des puissances de dix pour obtenir des valeurs intégrales gérables dans les ensembles de données est fourni par le texte classique de John Tukey , EDA (1977). Il souligne que les analystes de données devraient se sentir libres de redimensionner (et, plus généralement, de ré-exprimer de manière non linéaire) les données pour les rendre plus adaptées à l'analyse et plus faciles à gérer.

Je doute donc des spéculations, aussi naturelles et attrayantes soient-elles, qu'un dénominateur de 100 000 est originaire d'une échelle humaine particulière telle qu'une "petite à moyenne ville" (qui, avant le 20e siècle, aurait eu de toute façon moins de 10 000 habitants) moins de 100 000).


5

Je semble me rappeler dans un cours de géographie de la population il y a quelques décennies, notre instructeur (professeur Brigette Waldorf, maintenant à l'Université Purdue) a dit [quelque chose en ce sens] que nous exprimons le nombre d'occurrences (par exemple, décès, naissances) pour 100 000 parce que même s'il n'y a que 30 ou 50 occurrences, nous n'avons pas à recourir à des pourcentages embêtants. Intuitivement, il est plus logique pour la plupart des gens (bien que probablement pas les lecteurs de ce forum estimé) de dire, bien dans Upper Otters 'Bottom, le taux de mortalité par morsure de serpent pour les hommes âgés de 35 à 39 ans en 2010 était de 13 pour 100000 habitants. Cela permet simplement de comparer facilement les taux entre les emplacements et les cohortes (mais il en serait de même pour les pourcentages).

Bien que je ne sois pas démographe, je n'ai jamais entendu personne faire référence à l'argument de la ville de taille moyenne, même si cela semble raisonnable. C'est juste qu'en environ 20 ans de relations avec des géographes et des spécialistes des sciences sociales en tant qu'étudiant de premier cycle, étudiant diplômé et maintenant professeur, je n'ai jamais entendu cette explication particulière sur la taille de la ville invoquée. Jusqu'à maintenant.


3

En général, nous essayons de transmettre des informations à des personnes réelles, il est donc utile d'utiliser un nombre significatif pour les personnes. 100 000 habitants, c'est la taille d'une petite à moyenne ville, ce qui est facile à penser.


2
Cela a du sens, mais avez-vous une référence pour cela?
whuber

-1

Il n'y a aucune raison intelligente ou rationnelle de se convertir à 100 000.

C'est juste changer les unités d'un rapport.

Le plus gros problème est que la plupart des gens utilisent le mauvais domaine lors de la conversion à 100 000

Il n'y a tout simplement aucune bonne raison de le faire.


Bienvenue sur Stats.SE. Pouvez-vous modifier votre message et justifier vos déclarations? Ce sera intéressant si vous pouvez fournir quelques références, en particulier à votre troisième phrase. Pendant que vous y êtes, vous pouvez corriger les fautes de frappe dans votre message. Au fait, profitez-en pour faire le tour ( stats.stackexchange.com/tour ), si vous ne l'avez pas déjà fait. Consultez également quelques conseils sur l' aide au formatage et notez les équations à l'aide de LaTeX / MathJax .
Ertxiem - réintègre Monica
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.