Cours accéléré en estimation moyenne robuste


15

J'ai un tas (environ 1000) d'estimations et elles sont toutes censées être des estimations de l'élasticité à long terme. Un peu plus de la moitié de ces estimations sont estimées en utilisant la méthode A et le reste en utilisant une méthode B. Quelque part, j'ai lu quelque chose comme "Je pense que la méthode B estime quelque chose de très différent de la méthode A, parce que les estimations sont beaucoup plus élevées (50-60%) ". Ma connaissance des statistiques robustes est presque nulle, donc je n'ai calculé que les moyennes et les médianes des deux échantillons ... et j'ai immédiatement vu la différence. La méthode A est très concentrée, la différence entre la médiane et la moyenne est très faible, mais l'échantillon de la méthode B variait énormément.

J'ai conclu que les valeurs aberrantes et les erreurs de mesure faussent l'échantillon de la méthode B, j'ai donc jeté environ 50 valeurs (environ 15%) qui étaient très incompatibles avec la théorie ... et tout à coup, les moyennes des deux échantillons (y compris leur IC) étaient très similaires . La densité trace également.

(Dans le but d'éliminer les valeurs aberrantes, j'ai regardé la plage de l'échantillon A et supprimé tous les points d'échantillonnage de B qui se situaient en dehors de celui-ci.) J'aimerais que vous me disiez où je pourrais trouver des bases d'une estimation robuste des moyens qui permettez-moi de juger cette situation plus rigoureusement. Et d'avoir quelques références. Je n'ai pas besoin d'une compréhension très approfondie des différentes techniques, mais plutôt de lire une étude complète de la méthodologie d'estimation robuste.

J'ai testé la signification de la différence moyenne après la suppression des valeurs aberrantes et la valeur de p est de 0,0559 (t autour de 1,9), pour les échantillons complets, la stat t était d'environ 4,5. Mais ce n'est pas vraiment le point, les moyens peuvent être un peu différents, mais ils ne devraient pas différer de 50 à 60% comme indiqué ci-dessus. Et je ne pense pas qu'ils le fassent.


3
Quelle est votre analyse prévue à l'aide de ces données? La pratique de la suppression des valeurs aberrantes est d'une crédibilité statistique douteuse: vous pouvez "faire des données" pour donner une signification ou un manque de signification à n'importe quel niveau en faisant cela. Les populations A et B ayant reçu des mesures selon les méthodes A et B sont-elles vraiment homogènes ou est-il possible que vos méthodes viennent de vous donner des populations différentes?
AdamO

Il n'y aura pas d'autres calculs ou analyses à faire avec les données. Les deux méthodes mentionnées sont cohérentes, selon des recherches récentes, de sorte que les populations doivent être homogènes; mais les données ne sont pas de grande qualité et il est clair que certaines des valeurs de B sont là par erreur (la méthode est sujette aux erreurs), elles n'ont absolument aucun sens économique. Je sais que le retrait est douteux, c'est pourquoi je recherche quelque chose de plus rigoureux et crédible.
Ondrej

Réponses:


18

Cherchez-vous la théorie ou quelque chose de pratique?

Si vous cherchez des livres, en voici quelques-uns que j'ai trouvé utiles:

  • FR Hampel, EM Ronchetti, PJRousseeuw, WA Stahel, Robust Statistics: The Approach Based on In fluence Functions , John Wiley & Sons, 1986.

  • PJ Huber, Statistiques robustes , John Wiley & Sons, 1981.

  • PJ Rousseeuw, AM Leroy, Robust Regression and Outlier Detection , John Wiley & Sons, 1987.

  • RG Staudte, SJ Sheather, Robust Estimation and Testing , John Wiley & Sons, 1990.

Si vous recherchez des méthodes pratiques, voici quelques méthodes robustes d'estimation de la moyenne («estimateurs de localisation» est, je suppose, le terme le plus raisonné):

  • La médiane est simple, bien connue et assez puissante. Il a une excellente robustesse aux valeurs aberrantes. Le "prix" de la robustesse est d'environ 25%.

  • La moyenne ajustée à 5% est une autre méthode possible. Ici, vous jetez les valeurs 5% les plus élevées et 5% les plus basses, puis prenez la moyenne (moyenne) du résultat. C'est moins robuste pour les valeurs aberrantes: tant que pas plus de 5% de vos points de données sont corrompus, c'est bien, mais si plus de 5% sont corrompus, cela devient soudainement affreux (il ne se dégrade pas gracieusement). Le "prix" de la robustesse est inférieur à la médiane, bien que je ne sache pas exactement de quoi il s'agit.

  • {(Xje+Xj)/2:1jejn}n(n+1)/2X1,,Xnsont les observations. Cela a une très bonne robustesse: il peut gérer la corruption de près de 29% des points de données sans s'effondrer totalement. Et le "prix" de la robustesse est bas: environ 5%. C'est une alternative plausible à la médiane.

  • La moyenne interquartile est un autre estimateur qui est parfois utilisé. Il calcule la moyenne des premier et troisième quartiles et est donc simple à calculer. Il a une très bonne robustesse: il peut tolérer une corruption jusqu'à 25% des points de données. Cependant, le "prix" de la robustesse n'est pas anodin: environ 25%. En conséquence, cela semble inférieur à la médiane.

  • De nombreuses autres mesures ont été proposées, mais celles ci-dessus semblent raisonnables.

En bref, je suggérerais la médiane ou peut-être l'estimateur de Hodges-Lehmann.

PS Oh, je devrais expliquer ce que je veux dire par le "prix" de la robustesse. Un estimateur robuste est conçu pour fonctionner correctement, même si certains de vos points de données ont été corrompus ou sont autrement aberrants. Mais que faire si vous utilisez un estimateur robuste sur un ensemble de données qui n'a pas de valeurs aberrantes ni de corruption? Idéalement, nous aimerions que l'estimateur robuste soit aussi efficace pour utiliser les données que possible. Ici, nous pouvons mesurer l'efficacité par l'erreur standard (intuitivement, la quantité typique d'erreur dans l'estimation produite par l'estimateur). On sait que si vos observations proviennent d'une distribution gaussienne (iid), et si vous savez que vous n'aurez pas besoin de robustesse, alors la moyenne est optimale: elle a la plus petite erreur d'estimation possible. Le "prix" de la robustesse, ci-dessus, est la mesure dans laquelle l'erreur-type augmente si nous appliquons un estimateur robuste particulier à cette situation. Un prix de robustesse de 25% pour la médiane signifie que la taille de l'erreur d'estimation typique avec la médiane sera environ 25% plus grande que la taille de l'erreur d'estimation typique avec la moyenne. Évidemment, plus le «prix» est bas, mieux c'est.


n(n+1)/2(Xje+Xj)/21jejnwilcox.test(..., conf.int=TRUE)

+1, c'est vraiment excellent. Cependant, j'ai une piqûre: je n'utiliserais pas l'expression «terme d'erreur» dans votre dernier paragraphe, car elle est souvent utilisée pour signifier autre chose; J'utiliserais plutôt «erreur standard de la distribution d'échantillonnage», ou simplement «erreur standard».
gung - Rétablir Monica

Une réponse très bien structurée et concise, merci! Un aperçu est ce dont j'avais besoin, je vais lire le document suggéré par Henrik et je devrais être couvert. Pour les longs divertissements nocturnes d'été, je ne manquerai pas de consulter les livres proposés par vous et jbowman.
Ondrej

@caracal, vous avez raison. Ma caractérisation de l'estimateur HL était incorrecte. Merci pour la correction. J'ai mis à jour ma réponse en conséquence.
DW

Merci, @gung! J'ai modifié la réponse pour utiliser «erreur standard» comme vous le suggérez.
DW

7

Si vous aimez quelque chose de court et facile à digérer, jetez un œil à l'article suivant de la littérature psychologique:

Erceg-Hurn, DM et Mirosevich, VM (2008). Méthodes statistiques robustes modernes: un moyen facile de maximiser la précision et la puissance de votre recherche. Psychologue américain , 63 (7), 591–601. doi: 10.1037 / 0003-066X.63.7.591

Ils s'appuient principalement sur les livres de Rand R Wilcox (qui ne sont certes pas trop mathématiques):

Wilcox, RR (2001). Principes fondamentaux des méthodes statistiques modernes: amélioration substantielle de la puissance et de la précision. New York; Berlin: Springer.
Wilcox, RR (2003). Appliquer des techniques statistiques contemporaines. Amsterdam; Boston: Academic Press.
Wilcox, RR (2005). Introduction aux tests robustes d'estimation et d'hypothèse. Presse académique.


5

Un livre qui combine assez bien théorie et pratique est Robust Statistical Methods with R, de Jurečková et Picek. J'aime aussi Robust Statistics , par Maronna et al. Cependant, les deux peuvent avoir plus de mathématiques que vous n'en voudriez. Pour un didacticiel plus appliqué axé sur R, ce pdf BelVenTutorial peut vous aider.


Ah, prof. Jurečková - un enseignant de notre université, quelles sont les chances. Je vais vérifier les deux livres. Bien que je cherchais un document plus ... bref (car ce problème est très marginal pour moi), cela ne fait pas de mal de s'y plonger un peu plus profondément. Merci!
Ondrej

1
Le monde est petit! Eh bien, au moins j'ai corrigé l'orthographe en copiant votre commentaire ...
jbowman
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.