Par exemple, dans R si vous appelez la acf()
fonction, elle trace un corrélogramme par défaut et trace un intervalle de confiance à 95%. En regardant le code, si vous appelez plot(acf_object, ci.type="white")
, vous voyez:
qnorm((1 + ci)/2)/sqrt(x$n.used)
comme limite supérieure pour le bruit blanc de type. Quelqu'un peut-il expliquer la théorie derrière cette méthode? Pourquoi obtenons-nous la qnorm de 1 + 0,95 puis divisons par 2 et après cela, divisons par le nombre d'observations?