Échelle variable en tant que données de comptage - correcte ou non?


10

Dans cet article (disponible gratuitement via PubMed Central), les auteurs utilisent une régression binomiale négative pour modéliser le score sur un instrument de dépistage à 10 éléments noté 0-40. Cette procédure suppose des données de comptage, ce qui n'est clairement pas le cas ici. J'aimerais avoir votre avis sur la question de savoir si cette approche est acceptable, car j'utilise parfois le même instrument ou des instruments similaires dans mon travail. Sinon, j'aimerais savoir s'il existe des alternatives acceptables. Plus de détails ci-dessous:

L'échelle utilisée est le test d'identification des troubles liés à la consommation d'alcool (AUDIT), un questionnaire en 10 points conçu comme un instrument de dépistage des troubles liés à la consommation d'alcool et à la consommation d'alcool dangereuse / nocive. L'instrument est noté de 0 à 40, et les résultats sont généralement fortement biaisés à gauche.

À ma connaissance, l'utilisation des données de comptage suppose que toutes les valeurs qui sont "comptées" sont indépendantes les unes des autres - les patients qui se rendent chaque jour aux urgences, le nombre de décès dans un certain groupe, etc. - ils sont tous indépendants les uns des autres, bien que dépendant des variables sous-jacentes. De plus, je pense qu'il ne peut pas y avoir de comptage maximum autorisé lors de l'utilisation des données de comptage, bien que je pense que cette hypothèse puisse être assouplie lorsque le maximum théorique est très élevé par rapport au maximum observé dans les données?

Lorsque vous utilisez l'échelle AUDIT, nous n'avons pas de vrai décompte. Nous avons 10 éléments avec un score total maximum de 40, bien que des scores élevés soient rarement vus dans la pratique. Les scores sur les éléments sont naturellement corrélés entre eux.

Les hypothèses requises pour utiliser les données de comptage sont donc violées. Mais est-ce toujours une approche acceptable? Quelle est la gravité des violations des hypothèses? Y a-t-il certaines circonstances dans lesquelles cette approche peut être considérée comme plus acceptable? Existe-t-il des alternatives à cette approche qui n'impliquent pas de réduire la variable d'échelle aux catégories?

Réponses:


4

L'instrument AUDIT est essentiellement une échelle de Likert. Un ensemble de questions (éléments de Likert), avec des réponses souvent sur une échelle de cinq points, est conçu pour aborder un phénomène sous-jacent. La somme des réponses à l'ensemble des questions, l'échelle de Likert, est ensuite utilisée comme mesure du phénomène sous-jacent. Bien que les éléments Likert sont souvent sur une échelle de « fortement en désaccord » à « fortement d' accord » , l'application pour mesurer une tendance à « A lcohol U se D isorders » dans ce « je DENTIFICATION T est » est simple.

Comme indiqué dans la page Wikipédia de l'échelle de Likert , "La question de savoir si les éléments de Likert individuels peuvent être considérés comme des données au niveau de l'intervalle, ou s'ils doivent être traités comme des données catégorielles ordonnées fait l'objet d'un désaccord considérable dans la littérature, avec de fortes convictions sur ce qui est les méthodes les plus applicables. " Ce différend remonte probablement à la majeure partie des 80 ans et plus depuis que Likert a proposé la première échelle: chaque étape de l'échelle est-elle équivalente, à la fois à l'intérieur et entre les éléments qui composent l'échelle? Le problème a été résolu sur la validation croisée, comme dans les réponses à cette question , l'une des premières questions posées sur ce site.

Si vous acceptez l'idée que l'échelle comporte des étapes qui sont uniformes (ou suffisamment proches pour être uniformes pour l'application en question, peut-être moyennées en ajoutant 10 éléments différents, comme dans AUDIT), alors plusieurs approches d'analyse sont possibles. L'une consiste à considérer la réponse sur l'échelle comme une série d'étapes choisies ou non pour monter l'échelle, avec la même probabilité de monter chacune des étapes.

Cela permet de penser aux « données d'échelle de Likert à n points comme à n essais d'un processus binomial» , comme dans une question de 2010 de @MikeLawrence. Bien que les réponses à cette question ne soient pas très favorables à cette idée, il n'a pas été difficile de trouver rapidement aujourd'hui une étude de 2014 qui a utilisé et étendu cette approche avec succès pour distinguer les sous-populations avec différentes probabilités binomiales. Bien qu'un processus binomial soit souvent utilisé pour modéliser les données de comptage, il peut donc être utilisé pour modéliser le nombre, le comptage, des mesures qu'un individu a prises le long de l'échelle des «troubles liés à la consommation d'alcool».

Comme @Scortchi l'a noté dans une réponse à la question liée au deuxième paragraphe, une limitation du modèle binomial est qu'il impose une relation particulière entre la moyenne et la variance de la réponse. Le binôme négatif supprime cette restriction, avec la perte de l'interprétation facile fournie par le modèle binomial simple. Dans l'analyse, le paramètre supplémentaire qui doit être ajusté n'utilise qu'un degré de liberté supplémentaire. En revanche, essayer de spécifier des probabilités différentes pour chacune des 40 étapes de Likert et leur somme dans l'échelle de Likert serait intimidant.

Comme @MatthewGraves l'a noté dans sa réponse à cette question, il est préférable de déterminer si le modèle binomial négatif est approprié en examinant les résidus. Dans l' étude originale qui a développé AUDIT, une valeur de 8 ou plus sur l'échelle de 40 points avait une spécificité et une sensibilité tout à fait raisonnables pour distinguer les personnes diagnostiquées pour "consommation dangereuse ou nocive d'alcool", dans 6 pays différents. Alors peut-être qu'un modèle binomial à deux populations basé sur des populations à risque élevé et à faible risque, similaire à l'étude de 2014 liée ci-dessus, serait mieux.

Les personnes intéressées par AUDIT en particulier devraient examiner cette étude originale. Par exemple, bien que le besoin d'une boisson le matin puisse sembler mesurer quelque chose de complètement différent de la fréquence de la consommation d'alcool, comme l'a supposé @SeanEaster, la consommation du matin a une corrélation moyenne pondérée de 0,73 avec une échelle de mesures de la consommation d'alcool. (Ce résultat n'est pas surprenant pour quelqu'un qui a eu des amis souffrant de troubles liés à la consommation d'alcool.) L'AUDIT semble être un bon exemple des compromis nécessaires pour développer un instrument qui peut être utilisé de manière fiable dans plusieurs cultures.


Merci pour une bonne réponse. Lorsque je regarde mes propres données AUDIT de plus de 20000 individus, la forme ressemble à une distribution binomiale négative, il pourrait donc être raisonnable d'utiliser cette hypothèse de distribution, ou peut-être un modèle quasi-poisson pourrait-il être utilisé? Si nous utilisons une distribution binomiale en considérant les points comme k succès sur 40 essais de bernoulli, n'aurons-nous pas un problème sérieux de surdispersion? Il en est ainsi dans mes données. Le quasi-binôme pourrait-il être une alternative?
JonB

Tout dépend de la raison pour laquelle vous modélisez les scores AUDIT 0-40 et de l'interprétation heuristique que vous souhaitez apporter aux résultats. Si tout ce que vous voulez est une relation des scores AUDIT avec d'autres variables, avec seulement une interprétation limitée des valeurs des paramètres de distribution eux-mêmes, alors utilisez une distribution qui fournit des résidus bien comportés; vos suggestions sont raisonnables. L'ajustement d'un seul binôme aux données est problématique, mais un mélange de 2 binômes (groupes à haut risque et à faible risque) avec différents p pourrait être informatif. Utilisez votre jugement en fonction de votre connaissance du sujet.
EdM

2

La distribution binomiale négative est préférée pour les événements discrets "contagieux". Une distribution de Poisson est utilisée lorsque les événements discrets sont indépendants. Ces distributions sont également assez faciles à tronquer, en remplaçant le point par un point , en gros.x=40x40

En règle générale, les différentes saveurs de la régression ont des priorités différentes pour les paramètres (c'est-à-dire la régularisation) et différents modèles de bruit. La régression standard des moindres carrés a un modèle de bruit gaussien, la régression binomiale négative a un modèle de bruit binomial négatif, etc. Le véritable test pour déterminer si un modèle de régression est approprié est de savoir si le bruit résiduel a ou non la distribution attendue.

Vous pouvez donc appliquer une régression binomiale négative à vos données, calculer les résidus, puis les tracer sur un tracé de probabilité binomiale négative, et avoir une idée de l'adéquation ou non du modèle. Si le bruit est structuré d'une autre manière, alors nous devons chercher un modèle de bruit qui correspond mieux à cette structure.

Le raisonnement du modèle génératif à la structure de bruit est utile - si nous savons que les données sont multiplicatives au lieu d'additives, par exemple, nous atteignons la lognormale au lieu de la normale - mais si le modèle génératif attendu et la structure de bruit ne sont pas d'accord, aller avec les données, pas les attentes.


Intéressant, je ne savais pas que les événements pouvaient être "contagieux". Que voulez-vous dire en remplaçant x = 40 par x> = 40, dans la pratique? Comment puis-je faire un tracé de probabilité binomiale négative dans R? Je suppose que vous ne voulez pas représenter les résidus résiduels par rapport aux valeurs ajustées? Voulez-vous dire comme un complot QQ?
JonB

@JonB Supposons que vous ayez un binôme négatif avec r = 1 et une probabilité de succès p = 0,9. La probabilité de survivre à 40 essais est exactement de 0,148%; la probabilité de survivre à 40 essais ou plus est de 1,48%. On peut donc définir une probabilité bien formée sur le domaine [0,40] en utilisant le binôme négatif pour [0,39] puis en réglant [40] pour qu'il soit égal à un, ce qui parce que la distribution binomiale négative est bien- formé est la probabilité qu'il soit de 40 ou plus.
Matthew Graves

@JonB Exactement, je veux dire comme un complot QQ. Je ne l'ai pas fait auparavant dans R, mais j'espère que ce lien vous aidera.
Matthew Graves

1
J'ai fait une expérience sur certaines données avec des scores AUDIT. Lors de la création d'un tracé qq, je dois créer un vecteur aléatoire de résultats à partir d'une distribution binomiale négative. Le mu / thêta est donné par mon modèle de régression, mais comment savoir quelle "taille" utiliser? Je suis désolé si c'est une question spécifique à R .. Quoi qu'il en soit, avez-vous une belle référence I que je peux lire plus sur l'application de binômes négatifs (et d'autres distributions) à ces types d'échelles construites en additionnant plusieurs éléments qui mesurent le type du même processus?
JonB du

J'ai fait quelques expériences supplémentaires maintenant. J'ai simulé un ensemble de données avec deux variables: x et y. 50% sont x = 0, 50% sont x = 1. Ceux qui sont x = 0 ont une probabilité de 0,2 pour y = 1, et ceux qui sont x = 1 ont une probabilité de 0,4 pour y = 1. J'ai ensuite effectué une régression logistique et j'ai regardé les résidus. Ils ne semblent pas du tout distribués de façon binomiale. En fait, ils prennent (bien sûr) 4 valeurs spécifiques. Êtes-vous certain que le modèle résiduel devrait toujours correspondre à l'hypothèse de distribution? Parce que dans ce cas, c'est clairement faux.
JonB
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.