L'ACP robuste (telle que développée par Candes et al 2009 ou mieux encore Netrepalli et al 2014 ) est une méthode populaire pour la détection des valeurs aberrantes multivariées , mais la distance de Mahalanobis peut également être utilisée pour la détection des valeurs aberrantes étant donné une estimation robuste et régularisée de la matrice de covariance . Je suis curieux de savoir les (dés) avantages d'utiliser une méthode par rapport à l'autre.
Mon intuition me dit que la plus grande distinction entre les deux est la suivante: lorsque l'ensemble de données est "petit" (dans un sens statistique), l'ACP robuste donnera une covariance de rang inférieur tandis que l'estimation de matrice de covariance robuste donnera à la place une pleine- covariance de rang due à la régularisation de Ledoit-Wolf. Comment cela affecte-t-il à son tour la détection des valeurs aberrantes?