Maindonald décrit une méthode séquentielle basée sur les rotations de Givens . (Une rotation de Givens est une transformation orthogonale de deux vecteurs qui supprime une entrée donnée dans l'un des vecteurs.) A l'étape précédente, vous avez décomposé la matrice de conception en une matrice triangulaire via un transformation orthogonale pour que . (Il est rapide et facile d'obtenir les résultats de régression à partir d'une matrice triangulaire.) Si vous ajoutez une nouvelle ligne sous , vous prolongez d'une ligne non nulle. aussi, disT Q Q X = ( T , 0 ) ′ v X ( T , 0 ) ′ t T T t T QXTQQX=(T,0)′vX(T,0)′t. La tâche consiste à mettre à zéro cette ligne tout en conservant les entrées dans la position de diagonale. Une séquence de rotations de Givens fait ceci: la rotation avec la première ligne de zéros le premier élément de ; puis la rotation avec la deuxième ligne de le deuxième élément à zéro , et ainsi de suite. L’effet est de prémultiplier par une série de rotations, ce qui ne change pas son orthogonalité.TTtTQ
Lorsque la matrice de conception a colonnes (ce qui est le cas lors d'une régression sur variables plus une constante), le nombre de rotations nécessaires ne dépasse pas et chaque rotation modifie deux vecteurs . Le stockage nécessaire pour est . Ainsi, cet algorithme a un coût de calcul de dans le temps et dans l’espace.p p + 1 p + 1 T O ( ( p + 1 ) 2 ) O ( ( p + 1 ) 2 )p+1pp+1p+1TO((p+1)2)O((p+1)2)
Une approche similaire vous permet de déterminer l’effet de la suppression d’une ligne sur la régression. Maindonald donne des formules; donc faire Belsley, Kuh, et gallois . Ainsi, si vous recherchez une fenêtre mobile pour la régression, vous pouvez conserver les données de cette fenêtre dans un tampon circulaire, en joignant le nouveau datum et en supprimant l’ancien à chaque mise à jour. Cela double le temps de mise à jour et nécessite un stockage supplémentaire de pour une fenêtre de largeur . Il semble que serait l'analogue du paramètre d'influence.k 1 / kO(k(p+1))k1/k
Pour la décroissance exponentielle, je pense (de manière spéculative) que vous pouvez adapter cette approche aux moindres carrés pondérés, en attribuant à chaque nouvelle valeur un poids supérieur à 1. Il ne devrait pas être nécessaire de conserver une mémoire tampon des valeurs précédentes ou de supprimer des données anciennes.
Références
JH Maindonald, Calcul statistique. J. Wiley & Sons, 1984. Chapitre 4.
DA Belsley, E. Kuh, RE Welsch, Diagnostics de régression: identification des données d'influence et des sources de colinéarité. J. Wiley & Sons, 1980.