Supposons que j'ai un ensemble d'observations univariées indépendantes et distribuées de manière identique et deux hypothèses sur la façon dont été généré:
: est tiré d'une distribution gaussienne unique avec une moyenne et une variance inconnues.
: est tiré d'un mélange de deux Gaussiennes avec une moyenne, une variance et un coefficient de mélange inconnus.
Si je comprends bien, ce sont des modèles imbriqués puisque le modèle que représente peut être décrit en termes de si vous contraignez les paramètres des deux Gaussiens à être identiques ou contraignez le coefficient de mélange à zéro pour l'un des deux Gaussiens.
Par conséquent, il semble que vous devriez pouvoir utiliser l'algorithme EM pour estimer les paramètres de , puis utiliser le théorème de Wilks pour déterminer si la probabilité des données sous est significativement supérieure à celle sous . Il y a un petit acte de foi dans l'hypothèse que l'algorithme EM convergera vers la probabilité maximale ici, mais c'est celui que je suis prêt à faire.
J'ai essayé cela dans une simulation de monte carlo, en supposant que a 3 degrés de liberté de plus que (la moyenne et la variance pour le deuxième gaussien et le paramètre de mélange). Lorsque j'ai simulé des données de , j'ai obtenu une distribution de valeurs P qui était sensiblement non uniforme et enrichie pour de petites valeurs P. (Si l'EM ne convergeait pas vers la vraie vraisemblance maximale, l'exact opposé serait attendu.) Qu'est-ce qui ne va pas avec mon application du théorème de Wilks qui crée ce biais?