Comme mugen l'a mentionné, représente le nombre de paramètres estimés . En d'autres termes, c'est le nombre de quantités supplémentaires que vous devez connaître afin de spécifier complètement le modèle. Dans le modèle de régression linéaire simple
y = a x + b,
vous pouvez estimer a , b ou les deux. Quelles que soient les quantités que vous n'évaluez pas, vous devez les fixer. Il n'y a pas "ignorer" un paramètre dans le sens où vous ne le connaissez pas et ne vous en souciez pas. Le modèle le plus courant qui n'évalue pas à la fois a et b est le modèle sans interception, où nous fixons b = 0k
y=ax+b
ababb=0. Cela aura 1 paramètre. Vous pouvez tout aussi facilement fixer
ou
b = 1 si vous avez des raisons de croire que cela reflète la réalité. (Point précis:
σ est également un paramètre dans une régression linéaire simple, mais comme il est présent dans chaque modèle, vous pouvez le supprimer sans affecter les comparaisons d'AIC.)
a=2b=1σ
Si votre modèle est
le nombre de paramètres dépend de si vous fixez l'une de ces valeurs et de la forme de f . Par exemple, si nous voulons estimer a , b , c et savoir que f ( c , x ) = x c , alors lorsque nous écrivons le modèle, nous avons
y = a x c + b
avec trois paramètres inconnus. Cependant, si f ( c ,
y=af(c,x)+b
fa,b,cf(c,x)=xcy=axc+b
, alors nous avons le modèle
y = a c x + b
qui n'a vraiment que deux paramètres:
a c et
b .
f(c,x)=cxy=acx+b
acb
Il est crucial que soit une famille de fonctions indexées par c . Si tout ce que vous savez, c'est que f ( c , x ) est continu et que cela dépend de c et x , alors vous n'avez pas de chance car il existe d'innombrables fonctions continues.f(c,x)cf(c,x)cx