Il existe plusieurs distinctions entre les modèles de régression linéaire et non linéaire, mais la principale mathématique est que les modèles linéaires sont linéaires dans les paramètres, tandis que les modèles non linéaires sont non linéaires dans les paramètres. Pinheiro et Bates (2000, pp. 284-285), auteurs du nlme
package R, ont décrit avec élégance les considérations les plus importantes dans la sélection des modèles:
Lorsque vous choisissez un modèle de régression pour décrire comment une variable de réponse varie avec les covariables, on a toujours la possibilité d'utiliser des modèles, tels que des modèles polynomiaux, qui sont linéaires dans les paramètres. En augmentant l'ordre d'un modèle polynomial, on peut obtenir des approximations de plus en plus précises de la véritable fonction de régression, généralement non linéaire, dans la plage observée des données. Ces modèles empiriques sont basés uniquement sur la relation observée entre la réponse et les covariables et n'incluent aucune considération théorique sur le mécanisme sous-jacent produisant les données. Les modèles non linéaires, en revanche, sont souvent mécanistes, c'est-à-dire basés sur un modèle du mécanisme produisant la réponse. Par conséquent, les paramètres du modèle dans un modèle non linéaire ont généralement une interprétation physique naturelle. Même lorsqu'ils sont dérivés empiriquement, les modèles non linéaires incorporent généralement des caractéristiques théoriques connues des données, telles que les asymptotes et la monotonie, et dans ces cas, peuvent être considérés comme des modèles semi-mécanistes. Un modèle non linéaire utilise généralement moins de paramètres qu'un modèle linéaire concurrent, tel qu'un polynôme, donnant une description plus parcimonieuse des données. Les modèles non linéaires fournissent également des prévisions plus fiables pour la variable de réponse en dehors de la plage observée des données que, disons, les modèles polynomiaux. donnant une description plus parcimonieuse des données. Les modèles non linéaires fournissent également des prévisions plus fiables pour la variable de réponse en dehors de la plage observée des données que, disons, les modèles polynomiaux. donnant une description plus parcimonieuse des données. Les modèles non linéaires fournissent également des prévisions plus fiables pour la variable de réponse en dehors de la plage observée des données que, disons, les modèles polynomiaux.
Il existe également de grandes différences entre les packages nlme et lme4 qui vont au-delà du problème de linéarité. Par exemple, en utilisant nlme, vous pouvez ajuster des modèles linéaires ou non linéaires et, pour l'un ou l'autre type, spécifier les structures de variance et de corrélation pour les erreurs intra-groupe (par exemple, autorégressives); lme4 ne peut pas faire ça. De plus, les effets aléatoires peuvent être fixes ou croisés dans les deux packages, mais il est beaucoup plus facile (et plus efficace en termes de calcul) de spécifier et de modéliser les effets aléatoires croisés dans lme4.
Je conseillerais d'abord de considérer a) si vous aurez besoin d'un modèle non linéaire, et b) si vous devrez spécifier la variance intra-groupe ou les structures de corrélation. Si l'une de ces réponses est oui, alors vous devez utiliser nlme (étant donné que vous vous en tenez à R). Si vous travaillez beaucoup avec des modèles linéaires qui ont des effets aléatoires croisés, ou des combinaisons compliquées d'effets aléatoires imbriqués et croisés, alors lme4 est probablement un meilleur choix. Vous devrez peut-être apprendre à utiliser les deux packages. J'ai d'abord appris lme4, puis j'ai réalisé que je devais utiliser nlme car je travaille presque toujours avec des structures d'erreur autorégressives. Cependant, je préfère toujours lme4 lorsque j'analyse les données d'expériences avec des facteurs croisés. La bonne nouvelle est qu'une grande partie de ce que j'ai appris sur lme4 a bien été transférée à nlme. D'une manière ou d'une autre,
Les références
Pinheiro, JC et Bates, DM (2000). Modèles à effets mixtes en S et S-PLUS . New York: Springer-Verlag.