Je pense vraiment que c'est une bonne question et mérite une réponse. Le lien fourni est écrit par un psychologue qui prétend qu'une méthode de brassage maison est une meilleure façon d'analyser les séries chronologiques que Box-Jenkins. J'espère que ma tentative de réponse encouragera d'autres, qui connaissent mieux les séries chronologiques, à contribuer.
Depuis son introduction, il semble que Darlington défend l'approche consistant à simplement ajuster un modèle AR par moindres carrés. Autrement dit, si vous souhaitez adapter le modèle
à la série , vous pouvez simplement régresser la série sur la série avec décalage , décalage , et ainsi de suite jusqu'au décalage , en utilisant une régression multiple ordinaire. C'est certainement permis; dans R, c'est même une option dans la fonction. Je l'ai testé et il a tendance à donner des réponses similaires à la méthode par défaut pour ajuster un modèle AR dans R.z t z t 1 2 k
zt= α1zt - 1+ ⋯ + αkzt - k+ εt
ztzt12kar
Il préconise également de régresser sur des choses comme ou des puissances de pour trouver des tendances. Encore une fois, c'est très bien. De nombreux livres de séries chronologiques en parlent, par exemple Shumway-Stoffer et Cowpertwait-Metcalfe. En règle générale, une analyse de séries chronologiques peut se dérouler comme suit: vous trouvez une tendance, la supprimez, puis ajustez un modèle aux résidus. t tzttt
Mais il semble qu'il préconise également un sur-ajustement, puis utilise la réduction de l'erreur quadratique moyenne entre la série ajustée et les données comme preuve que sa méthode est meilleure. Par exemple:
Je pense que les corrélogrammes sont désormais obsolètes. Leur objectif principal était de permettre aux travailleurs de deviner quels modèles correspondraient le mieux aux données, mais la vitesse des ordinateurs modernes (au moins en régression sinon dans l'ajustement des modèles de séries chronologiques) permet à un travailleur d'ajuster simplement plusieurs modèles et de voir exactement comment chacun s'adapte tel que mesuré par l'erreur quadratique moyenne. [La question de la capitalisation au hasard n'est pas pertinente pour ce choix, car les deux méthodes sont également sensibles à ce problème.]
Ce n'est pas une bonne idée parce que le test d'un modèle est censé être à quel point il peut prévoir, pas à quel point il correspond aux données existantes. Dans ses trois exemples, il utilise «l'erreur quadratique moyenne ajustée» comme critère de qualité de l'ajustement. Bien sûr, le sur-ajustement d'un modèle va réduire l'estimation de l'erreur dans l'échantillon, donc son affirmation selon laquelle ses modèles sont "meilleurs" parce qu'ils ont un RMSE plus petit est fausse.
En bref, puisqu'il utilise le mauvais critère pour évaluer la qualité d'un modèle, il arrive à des conclusions erronées sur la régression par rapport à ARIMA. Je parierais que s'il avait testé la capacité prédictive des modèles à la place, ARIMA se serait imposé. Peut-être que quelqu'un peut l'essayer s'il a accès aux livres qu'il mentionne ici .
[Supplémentaire: pour en savoir plus sur l'idée de régression, vous voudrez peut-être consulter des livres de séries chronologiques plus anciens qui ont été écrits avant que ARIMA ne devienne le plus populaire. Par exemple, Kendall, Time-Series , 1973, Chapter 11 a un chapitre entier sur cette méthode et des comparaisons avec ARIMA.]