Je lis le document bayésien en ligne sur la détection des points de changement d'Adams et MacKay ( lien ).
Les auteurs commencent par écrire la distribution prédictive marginale: où
- est l'observation au temps ;
- désigne l'ensemble d'observation jusqu'au temps ;
- est la longueur d'exécution courante (le temps depuis le dernier point de changement, peut être 0); et
- est l'ensemble des observations associées à l'exécution .
Eq. 1 est formellement correct (voir la réponse ci-dessous de @JuhoKokkala), mais je crois comprendre que si vous voulez réellement faire une prédiction sur vous devez l'étendre comme suit:
Mon raisonnement est qu'il pourrait bien y avoir un point de changement au moment (futur) , mais le postérieur ne couvre que jusqu'à .P ( r t | x 1 : t ) t
Le fait est que les auteurs de l'article nous font de l'équation. 1 tel quel (voir équations 3 et 11 dans le document), et non 1b. Ainsi, ils ignorent apparemment la possibilité d'un point de changement au temps lors de la prédiction de partir des données disponibles au temps . Au début de la section 2, ils disent en passantx t + 1 t
Nous supposons que nous pouvons calculer la distribution prédictive [pour ] conditionnellement à une longueur d'exécution donnée . r t
qui est peut-être là où est l'astuce. Mais en général, cette distribution prédictive devrait ressembler à l'équation. 1b; ce qui n'est pas ce qu'ils font (Eq. 11).
Donc, je ne suis pas sûr de comprendre ce qui se passe. Peut-être qu'il y a quelque chose de drôle avec la notation.
Référence
- Adams, RP et MacKay, DJ (2007). Détection en ligne des points de changement bayésiens. arXiv preprint arXiv: 0710.3742.