Considérons une variable aléatoire de Bernoulli avec le paramètre (probabilité de succès). La fonction de vraisemblance et les informations de Fisher (une matrice ) sont:θ 1 × 1
Considérons maintenant une version "sur-paramétrisée" avec deux paramètres: la probabilité de réussite et la probabilité d'échec . (Notez que , et cette contrainte implique que l'un des paramètres est redondant.) Dans ce cas, la fonction de vraisemblance et la matrice d'informations de Fisher (FIM) sont:
Notez que les déterminants de ces deux FIM sont identiques. De plus, cette propriété s'étend au cas plus général des modèles catégoriels (c'est-à-dire plus de deux états). Il semble également s'étendre aux modèles log-linéaires avec divers sous-ensembles de paramètres contraints à zéro; dans ce cas, le paramètre extra "redondant" correspond à la fonction de partition logarithmique, et l'équivalence des deux déterminants FIM peut être montrée sur la base du complément Schur du FIM plus grand. (En fait, pour les modèles log-linéaires, le FIM plus petit n'est que le complément Schur du FIM plus grand.)
Quelqu'un peut-il expliquer si cette propriété s'étend à un plus grand ensemble de modèles paramétriques (par exemple à toutes les familles exponentielles), permettant la possibilité de dériver les déterminants FIM sur la base d'un tel ensemble de paramètres "étendu"? C'est-à-dire que tout modèle statistique donné avec paramètres se trouve sur une variété à dimensions incorporée dans un espace à dimensions. Maintenant, si nous étendons l'ensemble de paramètres pour inclure une dimension de plus (qui est totalement contrainte en fonction des autres) et calculons le FIM en fonction de ces paramètres , obtiendrons-nous toujours le même déterminant que celui basé sur l'original paramètres (indépendants)? Aussi, comment ces deux FIM sont-elles liées?
La raison pour laquelle je pose cette question est que le FIM avec le paramètre supplémentaire semble souvent plus simple. Ma première pensée est que cela ne devrait pas fonctionner en général. Le FIM consiste à calculer des dérivées partielles de la vraisemblance logarithmique de chaque paramètre. Ces dérivées partielles supposent que, tandis que le paramètre en question change, tous les autres paramètres restent constants, ce qui n'est pas vrai une fois que nous impliquons le paramètre supplémentaire (contraint). Dans ce cas, il me semble que les dérivées partielles ne sont plus valables car on ne peut pas supposer que les autres paramètres sont constants; cependant, je n'ai pas encore trouvé de preuve qu'il s'agit en fait d'un problème. (Si les dérivées partielles sont problématiques dans les cas avec des paramètres dépendants, les dérivées totales sont-ellesbesoin à la place? Je n'ai pas encore vu d'exemple de calcul de la FIM avec des dérivées totales, mais c'est peut-être la solution ...)
Le seul exemple que j'ai pu trouver en ligne qui calcule la FIM sur la base d'un ensemble de paramètres "étendu" est le suivant: ces notes contiennent un exemple pour la distribution catégorielle, calculant les dérivées partielles requises comme d'habitude (c'est-à-dire comme si chaque paramètre est indépendant , même si une contrainte est présente parmi les paramètres).