Ma description de la distance de Mahalanobis en bas en haut explication de la distance de Mahalanobis? comprend deux résultats clés:
Par définition, il ne change pas lorsque les régresseurs sont décalés uniformément.
La distance au carré de Mahalanobis entre les vecteurs et est donnée par où est la covariance des données.xyD2(x,y)=(x−y)′Σ−1(x−y)
Σ
(1) nous permet de supposer que les moyennes des régresseurs sont toutes nulles. Reste à calculer . Cependant, pour que l'affirmation soit vraie, nous devons ajouter une autre hypothèse:hi
Le modèle doit inclure une interception.
En tenant compte de cela, qu'il y ait régresseurs et données, en écrivant la valeur du régresseur pour l'observation comme . Soit le vecteur colonne de ces valeurs pour le régresseur écrit et le vecteur ligne de ces valeurs pour l'observation être écrit . Ensuite, la matrice du modèle estk≥0njixijnjx,jkixi
X=⎛⎝⎜⎜⎜⎜11⋮1x11x21⋮xn1⋯⋯⋮⋯x1kx2k⋮xnk⎞⎠⎟⎟⎟⎟
et, par définition, la matrice de chapeau est
H=X(X′X)−1X′,
d'où l'entrée long de la diagonale esti
hi=hii=(1;xi)(X′X)−1(1;xi)′.(1)
Il n'y a rien d'autre à faire que de calculer cette matrice centrale inverse - mais en vertu du premier résultat clé, c'est facile, surtout lorsque nous l'écrivons sous forme de matrice de blocs:
X′X=n(100′C)
où et0=(0,0,…,0)′
Cjk=1n∑i=1nxijxik=n−1nCov(xj,xk)=n−1nΣjk.
(J'ai écrit pour l' exemple de matrice de covariance des régresseurs.) Parce que c'est la diagonale du bloc, son inverse peut être trouvé simplement en inversant les blocs:Σ
(X′X)−1=1n(100′C−1)=(1n00′1n−1Σ−1).
De la définition on obtient(1)
hi=(1;xi)(1n00′1n−1Σ−1)(1;xi)′=1n+1n−1xiΣ−1x′i=1n+1n−1D2(xi,0).
La résolution de la longueur au carré de Mahalanobis donneD2i=D2(xi,0)
D2i=(n−1)(hi−1n),
QED .
Avec le recul, on peut tracer le terme additif de la présence d'une interception, qui a introduit la colonne de celles dans la matrice du modèle . Le terme multiplicatif est apparu après avoir supposé que la distance de Mahalanobis serait calculée en utilisant l' estimation de covariance de l' échantillon (qui divise les sommes des carrés et des produits par ) plutôt que la matrice de covariance des données (qui divise la somme des carrés et produits par ).1/nXn−1n - 1 nn−1n
La valeur principale de cette analyse est de donner une interprétation géométrique à l'effet de levier, qui mesure combien un changement d'unité dans la réponse à l' observation va changer la valeur ajustée à cette observation: observations fort effet de levier sont à grande distance Mahalanobis du centre de gravité des régresseurs, exactement comme un levier mécaniquement efficace fonctionne à une grande distance de son point d'appui.i
Code R pour montrer que la relation est vraie:
x <- mtcars
# Compute Mahalanobis distances
h <- hat(x, intercept = TRUE); names(h) <- rownames(mtcars)
M <- mahalanobis(x, colMeans(x), cov(x))
# Compute D^2 of the question
n <- nrow(x); D2 <- (n-1)*(h - 1/n)
# Compare.
all.equal(M, D2) # TRUE
print(signif(cbind(M, D2), 3))