Mes questions sont:
- Les modèles linéaires généralisés (GLM) convergent-ils vers un maximum global? Si oui, pourquoi?
- De plus, quelles contraintes y a-t-il sur la fonction de liaison pour assurer la convexité?
Ma compréhension des GLM est qu'ils maximisent une fonction de vraisemblance hautement non linéaire. Ainsi, j'imagine qu'il existe plusieurs maxima locaux et l'ensemble de paramètres vers lequel vous convergez dépend des conditions initiales de l'algorithme d'optimisation. Cependant, après avoir fait quelques recherches, je n'ai trouvé aucune source unique qui indique qu'il existe plusieurs maxima locaux. De plus, je ne connais pas très bien les techniques d'optimisation, mais je sais que la méthode de Newton-Raphson et l'algorithme IRLS sont très sujets aux maxima locaux.
Veuillez expliquer si possible à la fois sur une base intuitive et mathématique!
EDIT: dksahuji a répondu à ma question d'origine, mais je veux ajouter la question de suivi [ 2 ] ci-dessus. ("Quelles sont les contraintes sur la fonction de liaison pour assurer la convexité?")