Dans ma recherche, je suis tombé sur le problème général suivant: j'ai deux distributions et sur le même domaine, et un grand nombre (mais fini) d'échantillons de ces distributions. Les échantillons sont distribués de manière indépendante et identique à partir de l'une de ces deux distributions (bien que les distributions puissent être liées: par exemple, peut être un mélange de et d'une autre distribution.) L'hypothèse nulle est que les échantillons proviennent de , l'hypothèse alternative est que échantillons proviennent de .
Je suis en train de caractériser les erreurs de type I et de type II pour tester l'échantillon, connaissant les distributions et . En particulier, je suis intéressé par une erreur de délimitation étant donné l'autre, en plus de la connaissance de et .
J'ai posé une question sur math.SE concernant la relation entre la distance de variation totale entre et et test d'hypothèse, et j'ai reçu une réponse que j'ai acceptée. Cette réponse est logique, mais je n'ai toujours pas été en mesure de comprendre mon sens profond de la relation entre la distance de variation totale et le test d'hypothèse en ce qui concerne mon problème. J'ai donc décidé de me tourner vers ce forum.Q
Ma première question est la suivante: la variation totale est-elle liée à la somme des probabilités d'erreurs de type I et de type II indépendamment de la méthode de test d'hypothèse que l'on utilise? Essentiellement, tant qu'il existe une probabilité non nulle que l'échantillon ait pu être généré par l'une ou l'autre des distributions, la probabilité d'au moins une des erreurs doit être non nulle. Fondamentalement, vous ne pouvez pas échapper à la possibilité que votre testeur d'hypothèse fasse une erreur, quel que soit le traitement du signal que vous faites. Et la variation totale limite cette possibilité exacte. Ma compréhension est-elle correcte?
Il existe également une autre relation entre les erreurs de type I et II et les distributions de probabilité sous-jacentes et : la divergence KL . Ainsi, ma deuxième question est la suivante: la divergence KL ne s'applique-t-elle qu'à une méthode de test d'hypothèse spécifique (elle semble beaucoup revenir autour de la méthode du rapport de vraisemblance) ou peut-on l'appliquer généralement à toutes les méthodes de test d'hypothèse? S'il est applicable à toutes les méthodes de test d'hypothèse, pourquoi semble-t-il si différent de la limite de variation totale? Se comporte-t-il différemment?Q
Et ma question sous-jacente est la suivante: existe-t-il un ensemble de circonstances prescrites dans lesquelles je devrais utiliser l'une ou l'autre borne, ou s'agit-il uniquement d'une question de commodité? Quand le résultat doit-il être dérivé en utilisant une borne liée en utilisant l'autre?
Je m'excuse si ces questions sont triviales. Je suis un informaticien (donc cela me semble être un problème d'appariement de motifs fantaisistes :).) Je connais assez bien la théorie de l'information et j'ai également une formation universitaire en théorie des probabilités. Cependant, je commence tout juste à apprendre tous ces trucs de test d'hypothèse. Au besoin, je ferai de mon mieux pour clarifier mes questions.