J'apprends juste l'optimisation et j'ai du mal à comprendre la différence entre l'optimisation convexe et non convexe. D'après ma compréhension, une fonction convexe est une fonction où "le segment de ligne entre deux points quelconques sur le graphique de la fonction se trouve au-dessus ou sur le graphique". Dans ce cas, un algorithme de descente de gradient pourrait être utilisé, car il n'y a qu'un seul minimum et les gradients vous amèneront toujours à ce minimum.
Cependant, qu'en est-il de la fonction de cette figure:
Ici, le segment de ligne bleue passe sous la fonction rouge. Cependant, la fonction n'a toujours qu'un minimum, et donc la descente en pente vous mènerait toujours à ce minimum.
Mes questions sont donc:
1) La fonction de cette figure est-elle convexe ou non convexe?
2) S'il n'est pas convexe, des méthodes d'optimisation convexe (descente de gradient) peuvent-elles encore être appliquées?