Supposons que vous ayez un ensemble de données d'une distribution continue avec une densité supportée sur qui n'est pas connue, mais est assez grand donc une densité de noyau (par exemple) l'estimation, , est assez précise. Pour une application particulière, je dois transformer les données observées en un nombre fini de catégories pour produire un nouvel ensemble de données avec une fonction de masse implicite .
Un exemple simple serait lorsque et lorsque . Dans ce cas, la fonction de masse induite serait
Les deux "paramètres de réglage" sont ici le nombre de groupes, , et le vecteur de longueur de seuils . Notons la fonction de masse induite par .
Je voudrais une procédure qui réponde, par exemple, "Quel est le meilleur choix de pour que l'augmentation du nombre de groupes à (et le choix de l'optimal là-bas) produise une amélioration négligeable?" . J'ai l'impression que peut-être une statistique de test peut être créée (peut-être avec la différence de divergence KL ou quelque chose de similaire) dont la distribution peut être dérivée. Des idées ou de la littérature pertinente?
Edit: J'ai des mesures temporelles régulièrement espacées d'une variable continue et j'utilise une chaîne de Markov inhomogène pour modéliser la dépendance temporelle. Franchement, les chaînes de Markov d'état discrètes sont beaucoup plus faciles à manipuler et c'est ma motivation. Les données observées sont des pourcentages. J'utilise actuellement une discrétisation ad hoc qui me semble très bonne mais je pense que c'est un problème intéressant où une solution formelle (et générale) est possible.
Edit 2: En fait, minimiser la divergence KL équivaudrait à ne pas discrétiser du tout les données, donc cette idée est totalement absente. J'ai édité le corps en conséquence.