Je ne connais pas très bien cette littérature, alors pardonnez-moi s'il s'agit d'une question évidente.
Étant donné que l'AIC et le BIC dépendent de la maximisation de la probabilité, il semble qu'ils ne peuvent être utilisés que pour effectuer des comparaisons relatives entre un ensemble de modèles tentant de s'adapter à un ensemble de données donné. Selon ma compréhension, il ne serait pas logique de calculer l'AIC pour le modèle A sur l'ensemble de données 1, de calculer l'AIC pour le modèle B sur l'ensemble de données 2, puis de comparer les deux valeurs AIC et de juger cela (par exemple) Le modèle A correspond mieux à l'ensemble de données 1 que le modèle B correspond à l'ensemble de données 2. Ou peut-être que je me trompe et que c'est une chose raisonnable à faire. S'il vous plaît, faites-moi savoir.
Ma question est la suivante: existe-t-il une statistique d'ajustement de modèle qui peut être utilisée pour des comparaisons absolues plutôt que simplement relatives? Pour les modèles linéaires, quelque chose comme fonctionnerait; il a une gamme définie et des idées spécifiques à la discipline sur ce qu'est une «bonne» valeur. Je cherche quelque chose de plus général et j'ai pensé que je pourrais commencer par cingler les experts ici. Je suis sûr que quelqu'un a déjà pensé à ce genre de choses, mais je ne connais pas vraiment les bons termes pour effectuer une recherche productive sur Google Scholar.
Toute aide serait appréciée.