Il existe déjà plusieurs réponses expliquant pourquoi les matrices définies positives symétriques sont si importantes, donc je fournirai une réponse expliquant pourquoi elles ne sont pas aussi importantes que le pensent certaines personnes, y compris les auteurs de certaines de ces réponses. Par souci de simplicité, je limiterai la focalisation aux matrices symétriques et me concentrerai sur les Hessois et l'optimisation.
Si Dieu avait rendu le monde convexe, il n'y aurait pas d'optimisation convexe, il y aurait juste une optimisation. De même, il n'y aurait pas de matrices définies positives (symétriques), il y aurait juste des matrices (symétriques). Mais ce n'est pas le cas, alors traitez-le.
Si un problème de programmation quadratique est convexe, il peut être résolu "facilement". S'il n'est pas convexe, un optimum global peut toujours être trouvé en utilisant des méthodes de branchement et liées (mais cela peut prendre plus de temps et plus de mémoire).
Si une méthode de Newton est utilisée pour l'optimisation et que la Hesse à une certaine itération est indéfinie, alors il n'est pas nécessaire de la "finagler" à une définition positive. Si vous utilisez une recherche de ligne, des directions de courbure négative peuvent être trouvées et la recherche de ligne exécutée le long d'elles, et si vous utilisez une région de confiance, alors il y a une région de confiance suffisamment petite pour que la solution du problème de la région de confiance atteigne la descente.
Comme pour les méthodes Quasi-Newton, BFGS (amorti si le problème est contraint) et DFP maintiennent une définition positive de l'approximation de la Hesse ou de la Hesse inverse. D'autres méthodes Quasi-Newton, telles que SR1 (Symmetric Rank One) ne maintiennent pas nécessairement une définition positive. Avant de vous déformer, c'est une bonne raison de choisir SR1 pour de nombreux problèmes - si la Hesse n'est vraiment pas définie positive le long du chemin vers l'optimum, alors forcer l'approximation de Quasi-Newton à être définie positive peut entraîner une approximation quadratique moche de la fonction objectif. En revanche, la méthode de mise à jour SR1 est "lâche comme une oie", et peut fausser sa définition à mesure qu'elle progresse.
Pour les problèmes d'optimisation non linéairement contraints, ce qui importe vraiment n'est pas le Hessien de la fonction objectif, mais le Hessien du Lagrangien. Le Hessien du Lagrangien peut être indéfini même à un (l'opt) optimum, et en effet, ce n'est que la projection du Hessien du Lagrangien dans l'espace nul du Jacobien des contraintes actives (linéaires et non linéaires) qui doivent être semi positives -fini à l'optimum. Si vous modélisez la Hesse du Lagrangien via BFGS et ainsi la contraignez à être définie positive, cela pourrait être un ajustement terrible partout, et ne fonctionnera pas bien. En revanche, SR1 peut adapter ses valeurs propres à ce qu'il "voit" réellement.
Il y a beaucoup plus que je pourrais dire à propos de tout cela, mais cela suffit pour vous donner une saveur.
Edit : ce que j'ai écrit 2 paragraphes est correct. Cependant, j'ai oublié de souligner qu'il s'applique également aux problèmes à contraintes linéaires. Dans le cas de problèmes linéairement contraints, le Hessien du Lagrangien est juste (réduit à) le Hessien de la fonction objectif. Ainsi, la condition d'optimalité de second ordre pour un minimum local est que la projection du Hessien de la fonction objectif dans l'espace nul du Jacobien des contraintes actives est semi-définie positive. Plus particulièrement, la toile de jute de la fonction objectif n'a pas besoin (nécessairement) d'être psd à l'optimum, et ce n'est souvent pas le cas, même sur des problèmes à contraintes linéaires.